Крупные технологические компании одна за другой покидают Кремниевую долину, сообщает Handelsbaltt. Причины заключаются в высоких налогах, огромных ценах на жильё, проблемах с наркотиками и бездомными в крупных городах. Кроме того, издание отмечает, что высокотехнологичная отрасль в США сейчас в целом переживает кризис, погрязнув в различных скандалах.
Компания Amazon покинула Кремниевая долину, а Apple и Google собираются последовать этому примеру, пишет Handelsblatt. Amazon уже потратила $5 млрд на постройку новых штаб-квартир в Нью-Йорке и недалеко от Вашингтона. В Нью-Йорк также планирует перебраться и Google, а Apple готовится к переезду в Техас.
Всего же, как пишет издание, ссылаясь на данные San Francisco Business Times, за последнее время 32 предприятия из Кремниевой долины либо окончательно покинули её, либо отстраивают дополнительные мощности в других регионах. Согласно опросам, проведённым организацией Bay Area Council Advocacy Group в 2018 году, 46% предпринимателей из долины рассматривают вариант переезда как «очень вероятный». В 2016 году таких ответов было 34%. Кроме того, ещё в 2017 году, 42% опрошенных полагали, что Кремниевая долина находится «на верном пути», а в 2018 году доля оптимистов снизилась до 25%.
Многие, отмечает Handelsblatt, уезжают в целом из Калифорнии, по причине больших затрат на проживание, огромных цен на недвижимость, а также вышедших из-под контроля проблем с бездомными и наркотиками. На нервы также действуют высокие налоги и арендная плата за жилье, которая вынуждает многих сотрудников снимать квартиры не в крупных городах, а в пригородах — следовательно, им приходится тратить много времени и денег на то, чтобы добираться до работы.
В целом, вся американская высокотехнологичная индустрия переживает не лучшие времена: издание приводит в пример скандалы на почве сексизма в Uber, нескончаемые разбирательства по поводу личных данных пользователей Facebook, инциденты с домогательствами в Google. Теперь Кремниевую долину воспринимают не как «путь в будущее», а как «токсичное болото, полное быстрых денег, супер-эго и убийц рабочих мест». Издание приводит слова сооснователя Gerbert Kawasaki Wealth Росса Герберта, заявившего, что «мы слишком долго предоставляли технологическим концернам моральный карт-бланш». Герберт также отметил, что ИТ-гиганты из Силиконовой долины должны «заплатить за то, что они сделали со страной».
Использованные источники:
Комментарии
Насчет конспироложества: Странные пожары, запрет на отстройку сгоревших домов и переселение жителей горевших районов как бы намекает на определенные обстоятельства.
Видно у нас там глубинные ядерные уже отложены, и если что, всё нафиг затопит. Вот они уже заранее спасаются.
С новым всех 2019 годом, годом парящего орла, пусть он принесет всем здоровья, успехов и процветания))))))
"Компьютеры слишком глупы"
Профессор компьютерных наук Портлендского государственного университета Мелани Митчелл объясняет, почему искусственный интеллект в своем развитии натыкается на фундаментальный барьер
Вы, наверное, слышали, что мы находимся в разгаре революции искусственного интеллекта. Говорят, что ИИ развивается с поразительной скоростью благодаря алгоритмам «глубокого обучения», которые используют огромные объемы данных для обучения сложных программ, известных как «нейронные сети».
Сегодня программы ИИ могут распознавать лица и записывать произнесенные вслух предложения. Существуют программы, которые могут обнаружить хитрейшее финансовое мошенничество, найти подходящие веб-страницы в ответ на неоднозначные запросы, нарисовать лучший маршрут проезда практически к любому месту назначения, обыграть гроссмейстеров в шахматы и го, а также делать переводы между сотнями языков. Более того, обещают, что вот-вот получат широкое распространение автономные автомобили, автоматизированные способы диагностики рака, роботы-уборщики и даже автоматизированные научные открытия.
Основатель Facebook Марк Цукерберг недавно заявил, что в течение следующих пяти-десяти лет компания будет развивать свой ИИ, который будет «лучше, чем человек, во всех первичных человеческих чувствах: зрение, слух, язык, общее познание». Шейн Легг, главный ученый группы DeepMind в Google, предсказывает, что «ИИ достигнет человеческого уровня в середине 2020-х годов».
Как человек, который работал в сфере ИИ на протяжении нескольких десятилетий, я была свидетелем провала подобных прогнозов на ближайшее будущее ИИ, и уверена, что эти последние прогнозы тоже не оправдаются. Проблема создания человекоподобного интеллекта в машинах остается крайне недооцененной. Сегодняшним системам ИИ не хватает сущности человеческого интеллекта: понимания ситуаций, которые мы переживаем, способности понять их смысл. Математик и философ Джан-Карло Рота задал знаменитый вопрос: «Интересно, сможет ли ИИ когда-нибудь преодолеть барьер понимания?» Для меня это по-прежнему самый важный вопрос.
Отсутствие человеческого понимания у машин подчеркивается трещинами, появившимися недавно в фундаменте современного искусственного интеллекта. Несмотря на то, что сегодняшние программы намного более впечатляющи, чем системы, существовавшие 20 или 30 лет назад, серия исследований показала, что системы глубокого обучения могут быть ненадежными совершенно не по-человечески.
Приведу несколько примеров.
«Человеку с непокрытой головой нужна была шляпа» (The bareheaded man needed a hat) программа распознавания речи моего телефона понимает как «Человеку, руководимому медведем, нужна была шляпа». Google Translate переводит фразу «Я загнал свинью в загон» (“I put the pig in the pen”) на французский язык как «Я положил свинью в ручку» (Je mets le cochon dans le stylo) (неверный перевод слова «pen» в значении нструмента для письма).
Программы, которые «читают» документы и отвечают на вопросы о них, легко могут выдать неправильные ответы, если к документу добавить короткие, несущественные фрагменты текста. Точно так же программы, которые распознают лица и объекты – представляемые как главный триумф глубокого обучения, – могут провалиться, когда вводные данные слегка изменяются с помощью определенных типов освещения, фильтрации изображений и других способов, которые ни капельки не влияют на способности распознавания этих объектов человеком.
Одно недавнее исследование показало, что добавление небольшого количества «шума» к изображению лица может серьезно подорвать производительность современных программ распознавания лиц. Еще одно исследование, с юмором названное «Слон в комнате», показало, что появление небольшого изображения, не соответствующего картинке в целом, например, слона в углу гостиной, необъяснимым образом заставляет зрительные программы неправильно классифицировать другие объекты на этой картинке.
Кроме того, программы, которые научились играть в определенную видео или настольную игру на «сверхчеловеческом» уровне, полностью теряются, когда эта игра слегка модифицируется (меняется цвет фона на экране видеоигры или виртуальная «лопатка» для удара по «шарам» меняет местоположение).
Это лишь несколько примеров, демонстрирующих, что лучшие программы ИИ могут быть ненадежными, когда сталкиваются с ситуациями, в той или иной степени отличающимися от того, чему их обучали. Ошибки, совершаемые такими системами, варьируются от безвредных и смешных до потенциально катастрофических: представьте, например, систему безопасности в аэропорту, которая не позволяет вам сесть на рейс, потому что перепутала ваше лицо с лицом преступника, или беспилотный автомобиль, который из-за необычных условий освещения не замечает, что вы собираетесь перейти улицу.
Еще более тревожны недавние демонстрации уязвимости систем ИИ к так называемым негативным примерам. Используя их, злостный хакер может внести особые изменения в изображения, звуковые волны или текстовые документы, которые, будучи незаметными или незначительными для людей, заставят программу совершать потенциально катастрофические ошибки.
Возможность таких атак была продемонстрирована почти во всех областях применения ИИ, включая компьютерное видение, обработку медицинских изображений, распознавание и обработку речи. Многочисленные исследования продемонстрировали легкость, с которой хакеры могли обмануть системы распознавания лиц и объектов при помощи определенных незначительных изменений в изображениях. Можно, например, нанести незаметные наклейки на знак «Стоп», чтобы система видения автономного автомобиля ошибочно принимала его за знак «Уступи дорогу», или изменить аудиосигнал так, чтобы для человека он выглядел фоновой музыкой, а Siri или Alexa заставлял выполнять негласную команду.
Эти потенциальные уязвимости иллюстрируют, что текущий прогресс ИИ разбивается о барьер понимания. Любой, кто работает с системами ИИ, знает, что хотя эти программы демонстрируют вроде бы подобные человеческим способности видеть, разговаривать и играть, они не понимают, какие материалы они обрабатывают или какие результаты производят. Отсутствие такого понимания делает эти программы восприимчивыми к неожиданным ошибкам и незамеченным атакам.
Что же необходимо, чтобы преодолеть этот барьер и дать машинам возможность более глубоко понимать ситуации, с которыми они сталкиваются, а не полагаться на мелкие черты? Чтобы найти ответ, нам нужно взглянуть на изучение человеческого познания.
Наше собственное понимание ситуаций, с которыми мы сталкиваемся, основано на широком, интуитивном «здравомыслящем знании» о том, как все устроено в мире, о целях, мотивах и вероятном поведении других живых существ, особенно других людей. Кроме того, наше понимание мира основано на наших врожденных способностях обобщать знания, формировать абстрактные понятия и проводить аналогии — словом, гибко адаптировать наши концепции к новым ситуациям. Исследователи десятилетиями экспериментировали с методами создания системы ИИ с интуитивным здравым смыслом и надежными, похожими на человеческие, способностями обобщения, но прогресс в этом очень трудном деле был незначительным.
Программы искусственного интеллекта, которые не имеют здравого смысла и других ключевых аспектов человеческого понимания, все чаще используются для приложений реального мира. Некоторые люди обеспокоены «сверхразумным» ИИ, но самая большая его опасность заключается в том, что мы будем слишком доверять ему и предоставлять слишком большую автономию, не будучи полностью осведомленными о его недостатках. Как отмечает в своей книге «Верховный алгоритм» исследователь ИИ Педро Домингос: «Люди опасаются, что компьютеры станут слишком умными и захватят мир, но реальная проблема в том, что они слишком глупы, и они уже его захватили».
Гонка по коммерциализации ИИ оказывает огромное влияние на исследователей в плане создания систем, которые работают «достаточно хорошо» над узкими задачами. Но в конечном счете цель развития надежного ИИ потребует более глубокого изучения наших собственных удивительных способностей и нового понимания когнитивных механизмов, которые мы сами используем для надежного и здравого понимания мира. Чтобы справиться с барьером понимания, ИИ, вероятно, потребуется сделать шаг назад – отойти от все более крупных сетей и наборов данных и вернуться к истокам этой области как междисциплинарной науки, изучающей самую сложную научную проблему: природу интеллекта.
https://www.nytimes.com/2018/11/05/opinion/artificial-intelligence-machi...
Какое то наивное представление о искуственом интеллекте. Не нужно придавать математическим алгоритмам какие высшие сущности. А по поводу ваших примеров предложений так современная нейродингвистика легко это решает. Я в свое время строил нейронки обученные на википедии. Потом в них загонял тексты и они мне выдавали смысл этого текста.
Правильное представление. Переобучение сетей проблема сплошь и рядом. Часто обучающие сеты исключительно убоги. Зачастую сетям тупо не хватает нейронов на задачу: получается сеть, которая действительно решает задачу, но в каких-то её частных случаях, обучить же её нормально даже на нормальном сете просто нереально.
Не понятно: какой именно "смысл" выдавала сеть? в виде чего? И зачем это было нужно?
Абсолютно пустое представление. Представление шкрльника прочитавшего об этом в журнале. По поводу переобучения - возможно если вы знаете такой термин то регуляризация вам знакомаи соответственно знаете, что переобучения можно избежать. Да и вообще если сетт переобучена зачем она нужна. По поводу - не хватает нейронов. 40% задач машинного обучения даже не требуют нейросетей. Алгоритмов огромное количество. И часто логистическая регрессия справляется лучше нейронки.
По поводу моей работы. Я делал робота который классифицировал тексты по темам с помощью nlp. На выходе имелся вектор слов наиболее точно описывающий общий смысл
Вообще-то, я ими занимаюсь.
Регуляризация - очень непростое занятие в сетях, которые хоть чуть сложнее табуретки. Обучающие множества конечны, так что редкие примеры нужно из них извлекать и беречь. Ну, попросту, если из 10000 часов обучающего видео у автопилота есть только 50 секунд езды по льду в сильный ветер, то именно на этом примере он и обучится ездить по льду в сильные ветер. А какие там ещё сопутствующие обстоятельства - то дело десятое. Резидуалы, ручная регуляризация - это всё хорошо и даже здорово, но проблема есть, и при отладке/тестировании она может не вылезти (просто не догадаются проверить в таких условиях), а вылезет при реальной работе.
Если у кого-то там нейросеть используется не по делу, это проблемы не нейросетей, а кого-то там, всё же. Проблемы применения нейросетей в статье всё же описаны достаточно верно.
Вообще не понял смысл этого мероприятия - классифицировал по чему и зачем?.. ну да ладно, впрочем, что-то там делалось и фиг с ним.
Просто вы все время оперируете сетями. Это очень странно. Любой даже начинающий machine learning engineer знает, что нейронки не самая большая часть машинного обучения.
То что вы описали мне знакомо. Я писал диссертацию по экономике, где строил классификатор для определения компаний банкротов не-банкротов на основе их финансовых показателей. Классификаторов быдо несколько - дискриминантный анализ, логистическая регрессия и нейронка. Нейронка показала себя хуже всех. Там как раз была проблема переобучения. Что на 10000 здоровых предприятий всего 10 банкротов. Несбалансированная выборка приводила к несбалансированности ошибок 1 и 2 рода. Но все это решилось очисткой данных. После этого я работал machine learning engineer на один интернет сервис, который отвечал на вопросы пользователей в живую специалистами. Но в итоге после сделали робота, который отвечает на вопросы без участия специалиста на 90%
И прошу прощения - про представление школьника это не про Вас, а про предыдущего оратора
Суть проблемы ИИ (если под ней понимать проблему создания ИИ, эквивалентного интеллекту человека) передана верно. На текущем уровне развития цивилизации эта проблема не решаема. Для ее решения теоретически можно использовать два подхода: условно назовем их "сверху" и "снизу". "Сверху" - построить математическую модель, достаточно полно определяющую интеллект человека. Но никто полностью не разобрался с тем, как работает интеллект, и вряд ли в ближайшее время разберется (хотя попыток было много). "Снизу" - построить устройство, технически полностью аналогичное мозгу и устройствам приема информации (глазам, ушам и т.д.). Эта задача пока не решаема чисто технически и вряд ли будет решена до тех пор, пока не появится биоэлектроника или подобная наука.
А нейронные сети - это конечно здорово (сам в студенчестве баловался), но сравнивать современную нейронную сеть с мозгом, это примерно как сравнивать двумерное пространство с пятимерным.
Так в этом и проблема. 'Спецы' на АШе постоянно сравнивают математические алгоритмы класчификации и регрессии с человеческим интеллектом. Эти люди просто не понимают о чем говорят.
Сейчас не создают (и даже не пытаются реально создать) "ИИ эквивалентный человеческому интеллекту".
Сейчас решают некоторые относительно простые, но очень плохо формализируемые и алгоритмизуемые задачи автоматики. То есть, "программирование без программирования" для относительно простых задач.
Применительно к таким решениям всё написано правильно: ожидания от них значительно превосходят их реальные возможности.
Это как посмотреть. В широком смысле ставится задача создать ИИ, который сможет решать проблемы, который сейчас может решать только человек. Влажная мечта капиталиста - заменить капризных людишек на эффективные машины. Греф заменил юристов на ИИ вчера и мечтает заменить программистов завтра. Владельцы Uber мечтают выпилить водителя из такси. Военные мечтают убрать людей с поля боя. Ну и т.д.
Вы считаете, что управление автомобилем, управление предприятием - это "относительно простые задачи"? Страшно мне подумать, что есть "относительно сложная" задача для Вас.
У меня брат как раз этим занимается, ему дали спайковую сеть (которые работу нейрона имитируют) и задали найти задачу, которую она лучше решает, чем другие методы. Плюется, но ищет. Даже на MNIST датасете результаты говеные, говорит.
Напомнило ситуацию с ботом, который, поучившись у людей, стал нетолерантным расистом - и это было очень логично.
ИИ пока сделать невозможно. А его имитация - заодно имитирует и то, что люди реально думают - если, конечно, специально не блокировать развитие - что превращает его в поделки, которые мы и видим на рынке.
Человек в одно-двухлетнем возрасте тоже многого не понимает из того что видит. Это проходит со временем.
То есть это просто вопрос опыта, накопления ошибок.
Тебя кто-то насильно здесь держит, Винни? Уехал бы туда, как д-р ёбург, и не ныл бы тут !
А Тима Кука с собой берут? Всё-таки Техас -не слишком толерантный штат.
No country for gay men
Сюрпрайз!
Оказывается, для эффективной, а не "эффективной"(тм) научно-производственной деятельности требуется сбалансированная, экологичная социокультурная среда. Ну кто бы мог подумать! Никогда такого не было, и вот опять (с) ВСЧ
Это только "тупорылые совки" размещали производства в Москве и Ленинграде, а в наукограде Дубне осужденные за тяжкие и особо тяжкие преступления лишались прописки и высылались к едрене-фене
Автор, конспирОлогия. Мда...
бывает)
Проблема Кремниевой Долины - благодатный климат. Если можно круглый год жить под открытым небом, количество людей, которые именно это и делают, растёт.
Проблема КД- демократы у власти в Калифорнии, которые строят социализм в отдельно взятом штате, предлагают всё новые налоги для того. Например, в декабре был предложен новый налог на СМС для оплаты бесплатных мобильных телефонов для малоимущих (LOL)...
Да и в целом, постоянное "закрывание глаз" на нарушения закона, поощрение нелегальной иммиграции и т.п. - результаты всё более явно демонстрируют тупиковый путь проводимый правительством Кали. Страдают от этого - обычные налогоплательщики, законопослушные граждане.
Демократы у власти - это следствие. Потому что те, кто живёт круглый год под открытым небом, голосуют за бесплатный хлеб и зрелища.
Как обезьяны?
Растущие пальмы действуют расслабляюще на психику.
+ косячок забить.
Герберт дурак.
Заплатить за то, что за 30 лет озолотили американскую экономику?
Кремниевая таки превратилась в Силиконовую? Бгг.
Перспективный чат детектед! Сим повелеваю - внести запись в реестр самых обсуждаемых за последние 4 часа.
Вранье!
Никто оттуда не валит чо за чушь..
Дешевый кшшмарр:))
Уважаемый Удав. перед тем, как постить очередной крах, Вы бы советовались со своими Батюшками...
Обязательно, спасибо дешевенький Вы наш.
Хз, что там с долинами, но в критике нейросетей стать убога полностью.
Для космополитен пойдёт, конечно. Но претензии убоги - вводится фактор, не принимавший участия в обучении сети и засекается реакция сети на него. Могу предположить, что сеть в неком процентном соотношении с задачей справилась. И вот оставшийся процент и решил ТС продемонстрировать аки негатив, не публикуя точных данных.
ПыСы. Нейронки очень сильно продвинулись в распознавании текстов, речи, объектов и т. д. Мозг построить пока нельзя. В лучшем случае это будет один мозг человека на всю Землю. Маловато. Но части работают прекрасно. И этим надо пользоваться .
Человек пока совершенно не понимает, как работает мозг, но уже взялся за его полное моделирование ))))
Не удивляйтесь, так и есть. Это работает как некий "чёрный ящик". Но работает, это главное.
Простите, а действительно работает ? )))
Да, действительно. Коллеги полгода бились над решением задачи прямым математическим расчётом. Работало, но количество расчётов росло по экспоненте,возникла ситуация срыва заказа. Но применив для решения нейросеть они проблему решили с очень хорошим результатом. Решение спорное, но оно работает. И результат намного лучше того, что получался при прямом решении.
На простых и понятных задачах со множеством вводных сейчас нейросеть рулит. Это факт.
"Кремниевая долина" - лишь пример, как часть целого. А причина умирания человечества - в беспрецедентной его, человечества, жадности. Ну и, "социального строя", который эту жадность (читай - причину упадка цивилизации) пестует. Вот вам и бином Ньютона. Просто, правда?
уютная среда для творчества испорчена бомжами и высокими ценами на недвигу, а вы что думали вечнозеленый рай всегда будет дешев и безопасен...
Двигайте на Аляску, корпорации, там будет хорошо. Даже в суровом будующем на Аляске не пропадете, а в Калифорнии сьедят-с.
Глупо создавать кластеры. Примера Детройта им было мало...
.
Да "они" не столько переезжают, сколько рассредотачиваются по планете. Поближе к университетам и рынкам, за кадрами, идеями и деньгами. Роман Смирнов, из местных, это отслеживал и публиковал здесь.