Становится ясно, что как оптимизм, так и пессимизм относительно потенциала ИИ сильно преувеличены.
После такой шумихи и триллионов долларов инвестиций пузырь ИИ, похоже, наконец-то лопнет . Большая часть краха рынка , произошедшего в прошлый понедельник, была сосредоточена среди технологических компаний, которые существенно инвестировали в ИИ. Больше всего проиграла знаменитая компания по производству чипов Nvidia, которая, по мнению автора статьи в MSN Криса Тейлора , «потеряла триллион долларов оценки, 30% от общей суммы, с момента своего пика в 2024 году».
Тейлор продолжает перечислять причины этого спада: чрезмерная шумиха от таких гуру ИИ, как Сэм Альтман, выгорание потребителей, которых теперь отпугивают продукты с использованием ИИ, и нетерпеливые инвесторы, такие как Goldman Sachs, желающие более быстрой окупаемости своих инвестиций. Итак, как и большинство пузырей, компании ИИ обещали слишком много и не выполнили обещаний, заставив рынок скорректировать себя.
К сожалению, на этом все не заканчивается.
Технологии ИИ, похоже, упираются в стену в своем развитии. Как заметили многие, серверы для данных и работы ИИ поглощают колоссальное количество энергии, создавая огромную нагрузку на электросети. Они также требуют столь же колоссальных объемов капитала (исчисляемых миллиардами долларов) и постоянного финансирования — для справки, по оценкам, работа ChatGPT обходится OpenAI в 700 000 долларов в день.
Хуже того, Тейлор объясняет, что программы ИИ «исчерпали материал для обучения, и чем больше они обучаются в «интернете», тем больше в интернете содержится работ, написанных ИИ, что ухудшает рассматриваемый продукт». Первоначально, большая языковая модель (LLM), такая как ChatGPT, могла просматривать огромное количество созданного человеком контента в интернете и использовать эти данные для создания уникального эссе, которое соответствовало бы параметрам ее пользователей. Но теперь в сети так много контента, созданного ИИ, что любое эссе, созданное LLM, будет становиться все более производным, дефектным и непонятным . Мусор на входе, мусор на выходе.
В основе всех этих проблем лежит глубокое коллективное непонимание ИИ.
Проблема настолько очевидна, что ее трудно увидеть, особенно для гениев с высоким IQ в Кремниевой долине: искусственный интеллект — это не человеческий интеллект. Слишком долго технологи говорили об ИИ так, будто это синтетический мозг, который копирует функции человеческого мозга. Таким образом, они описывают компьютеры, обучающиеся, общающиеся и выполняющие административные задачи, как будто они сознательные работники.
И если послушать технооптимистов, таких как Марк Андрессен и Амджад Массад, ИИ может даже выполнять работу лайф-коучей и учителей. Андрессен предсказал , что «У каждого ребенка будет наставник-ИИ, который будет бесконечно терпеливым, бесконечно сострадательным, бесконечно знающим, бесконечно полезным. Наставник-ИИ будет рядом с каждым ребенком на каждом этапе его развития, помогая ему максимально раскрыть свой потенциал с помощью машинной версии бесконечной любви». ИИ не только понимает людей, но и понимает их бесконечно лучше, чем люди понимают себя и друг друга.
В сочетании с этой ошибочной персонализацией ИИ существует ошибочное представление о том, что человеческий разум — это просто органические компьютеры с несовершенным программированием. Душа обычно сводится к битам данных, которые можно загрузить или выгрузить. Несомненно, Андрессен представляет себе студентов, сидящих у ног своих роботов-инструкторов, тихо обучающихся у них так же, как компьютер устанавливает новое приложение, за исключением того, что над их головами не висит полоса загрузки.
Из-за этих несовершенных аналогий многие предполагали, что ИИ заменит большинство служащих и в конечном итоге возьмет под контроль большинство организаций — в конце концов, зачем иметь склонных ошибаться смертных у руля, когда можно иметь бесконечно мудрого и компетентного ИИ-повелителя, управляющего всем? По мнению экспертов, реальная проблема заключалась в том, чтобы иметь дело с перемещенными, безработными массами, которые неизбежно устареют, и убедиться, что роботы-повелители остаются добрыми к людям. В этом отношении единственное реальное различие между оптимистом и пессимистом заключалось в том, что один верил, что ИИ создаст утопию, а другой считал, что он сделает наоборот.
Конечно, ни одна из этих возможностей не является правдой, поскольку ИИ не имеет возможности заменить людей, и никогда не имел. В лучшем случае, это мощный инструмент, который имеет больше общего с приложением проверки орфографии/грамматики или поисковой системой, чем даже с самым тупым, самым лишенным воображения человеком.
Вот почему использование ИИ для зарабатывания денег оказалось таким провалом. Работодатели думали, что у них может быть программа ИИ, которая будет выполнять работу их сотрудников более эффективно за малую часть цены. Однако вложения и сопутствующее обучение, необходимые для выполнения даже самых базовых задач, ошеломляют . Вместо того, чтобы учиться программировать сложные операции на роботе, большинству менеджеров было бы лучше просто говорить своим работникам, что делать, и верить в их способность это делать. Это также делает рабочее место более счастливым.
То же самое касается использования ИИ для лечения нынешней эпидемии одиночества. Возможно, несколько отчаявшихся душ не будут против компании компаньона ИИ, но это только подстегнет самые худшие стороны тех, кто изо всех сил пытается сформировать значимые отношения. Вместо того чтобы служить практикой для настоящего взаимодействия, это усиливает антисоциальные привычки, которые изначально делают человека одиноким. Вместо того чтобы приносить жертвы и развивать эмпатию, одинокий пользователь потакает заблуждениям и культивирует крайний нарциссизм.
По иронии судьбы, величайшая польза ИИ заключается в том, что он демонстрирует, насколько особенны и незаменимы люди. Следовательно, его финансовый и культурный успех будет зависеть от того, сможет ли он повысить человеческий потенциал, став полезным инструментом, или наоборот, став дорогостоящим бременем.
Автор: Огюст Мейра — преподаватель английского языка из Далласа. Имеет степень магистра гуманитарных наук и степень магистра педагогических наук в области образовательного лидерства. Он является старшим редактором The Everyman , старшим автором The Federalist, а также писал эссе для The American Mind, The American Conservative, Religion and Liberty, Crisis Magazine и других изданий.
Великая схватка бульдогов спИкулей под ковром. Лошьё и правительства "под ИИ" очень бойко отлистывают капусту. пЕар с выхлопом на биржевые котировки - вот суть текущего движа, научно-технический прогресс и сопутствующие моральные проблемы глубоко вторичны...
Комментарии
К слову поражает объем и бескорыстность вбуханных туда средств.
Раньше переводчик типа translate.google.com был только у google и yandex. А теперь нейросетку, которая это умеет делать - можно скачать локально и пользоваться ей без интернета. Аналогично и с генерацией/распознаванием голоса.
Объем - да. А вот касательно "бескорыстности" - хм... Я бы не был столь оптимистичен...
Пузыри - это способ, которым западная экономика создаёт инфраструктуру для будущего.
- это как раз про это.
Так у них было и с железными дорогами, и с телекомом (доткомом), так сейчас с "ИИ".
Причём это общедоступные вещи. Т.е. связка pytorch + cuda + Nvidia появилась менее десяти лет назад. И это очень хороший полезный инструмент. Возможность запускать Pytorch на Vulkan/Apple NPU менее пяти лет назад появилась.
Да, это совмем не то, чем затуманивает разум автор статьи, рассказывая, что "нейросеть-трансформер XYZ не может решить текстовую задачу ABC".
Часто заблуждаются полагая, что ИИ не ошибается. Способность ошибаться - неотъемлемое свойство интеллекта. В том числе искусственного.
В реальности ожидается, что уж по крайней мере на вопрос "сколько будет дважды два" - отвечать будет корректно.
Ага, а мы как бэ покупаем или продаем? (с)
или "а сколько надо?" - это вот ни один ИИ не осилит.
Удивительным образом как раз вот это ChatGPT только и сумел осилить.
“Гуманитарную одарённость” он изображает вполне неплохо, а как подумать нужно так пасует.
И, разумеется, грамотного гуманитария он тоже не заменит, но работу большинства “гуманитарно одарённых”, вякающих про 8 млн. человек в россии, я могу ошибаться, я гуманитарий — выполняет прекрасно.
В итоге ни одна модель не отвечает на простейший вопрос «у Алисы брат и две сестры, сколько сестер у брата Алисы?». Уровень абстракции нулевой, семантика не освоена.
Да. Но важно обращать внимание, что даже в случае правильного ответа - он может быть получен абсолютно алогично. Ибо правил вывода - нет, есть только оХХХлиард (который, оказывается - уже съели) данных и их статистическая обработка.
Совсем новые модели уже отвечают правильно - потому что в интернетах много текстов с этим примером. Теперь нужно менять Алису на Бэзила, чтобы опять ввести их в тупик на некоторое время.
Мы не видим одной из ключевых способностей настоящего интеллекта - формирования адаптирующихся полей понятий. Цепочка Алиса=девочка=сестра не рождается внутри всех этих связей и весов.
О чем и речь: статистика - есть, а логики - увы - нет...
Это даже не логика, это подготовка абстракций для дальнейшей обработки логикой.
Ну, вроде как и цепочки, и правила вывода - это всё же элементы логики.
А оценка возможности применения того или иного правила, это логика, или таки способность формировать адаптированную аксиоматику понятийной системы? ) Понятно, что это внутри людей тоже делается вычислительной структурой, только еще более глубокой и гибкой, чем простое уравнение с сестрами-братьями, и при этом системой стабильной и не галлюцинирующей на ровном месте. А вся гигантская система БЯМ спотыкается именно об очень простое уравнение в итоге. У людей так тоже бывает, ослабленное абстрагирование, уход в детали и нарушение «температуры модели» каждый день наблюдаются психиатрами и коррекционными педагогами - олигофрения, разные стадии шизофрении, вот это все. Эти ребята точно так же не разгадают эту загадку, и с теми же типами ошибок. А когда БЯМ теряет контекст в диалоге - это ещё и амнестическая афазия )
Много раз встречал, что коренное отличие естественных людей от нынешних искусственных идиотов - это способность к генерации очень годных моделей по одной точке, без широкого контекста. Хотя в точной математике мы конечно слабы, условно трехразрядная память логического устройства (в среднем до 7 номерных объектов в краткосрочной памяти) это тоскливо
Имитатор интеллекта - в лучшем случае когда нибудь дотянется до возможностей насекомых. И учитывая что прикрутив такой имитатор к механизмам можно получить не фиговый эффект в виде реакций насекомого в макромире, то мб польза и будет. А мб будет скрепка и терминаторы.
Да и то - это мб при расширении энерговооруженности человечества - не раньше.
Ага, и в качестве пруфов на вопрос, как ты получил ответ брюнетко (ИИ) скажет: "Так пишут в интернетах".
Alice has a brother and two sisters not including her.
?
Эм... а зачем это уточнение?
Во-первых, как она может быть сама себе сестрой?
Во-вторых, такое уточнение делается, похоже, для окончательно одарённых.
А это как с программистом, который ставил на ночь рядом с кроватью два стакана - с водой и пустой. Помните, зачем?
Ну если сери.кардинал живёт там, откуда у него флаг, то в той стране уже действительно так всё запущено, что требуются пояснения к элементарным вопросам.
Про стаканы знаю. Полный – если ночью захочет пить, пустой – если не захочет.
Вот так и БЯМ нужно пояснять, что Алиса - человек, женского пола, может называться сестрой, не протестует по поводу гендерных стереотипов, ей позволено иметь родственников, родственникам позволено иметь ее, в ответе на задачу ее можно учитывать, как сестру ее можно учитывать тоже, можно плюсовать к другим сестрам, ее брат сохраняет одинаковое родство с двумя сёстрами и Алисой, результат будет верным при таком суммировании.
Без всех флажков ответьте получить. Хотя на самом деле еще проще. Без флажка «правильным ответом считать...» все равно найдут, как заблудиться в трех соснах.
Раз уж не даете комментарии:
ChatGPT и подобные ему не заменят человека там, где важны его особенности и в редких ситуациях, но вполне заменят в границах типовых сценариев
Не факт. Пока кроме холивара - реальных подтверждений полной замены - нет. А так - да: экскаватор заменяет землекопа, правда - не на всех задачах, не всегда, и при множестве разнообразных неозвученных ограничений.
ИМХО, лучше сказать так: Экскаватор легко заменяет пяток землекопов, но не может заменить одного землекопа.
Тоже вариант. Но тоже подлежит комментированию в зависимости от ситуации.
А зачем нужна полная замена, если уже сейчас можно кучу копирайтеров уволить?
Смешно, что те вещи, где считалось, что нужно обладать “одарённостью”, которая, типа, “не каждому дана” ИИ заменил, а вот в логику пока не могёт.
Как же уже надоела эта песня про "уволенных копирайтеров", ужасть.
Ну, где и кого уволили - пруфы будут? Только не "одна баба сказала" - а с подтверждением сохранения объемов выпуска документов и т.п. Ибо очередные бездоказательные причитания - ну надоели, честное слово.
Автомат для выдачи талонов на очередь в отделениях банков, не?
Но это так, чисто поржать... над "мощью" ИИ, требуемой для этого.
Не, пример неудачный.
сия поделка - в принципе, может справиться. Возможно, потребуются доработки (привести оформление к корпоративному стилю банка, например)...
К какому году и в каких конкретных областях?
Полная замена невозможна, поскольку отсутствуют аналитические способности и встретившись с неожиданной ситуацией ИИ будет действовать неадекватно, а наша жизнь тем и прекрасна, что каждый раз удивляет и нужно придумывать выход. В качестве дополнения человека - другое дело, но опасно тем, что человек доверившись ИИ перестанет его проверять (в том числе из-за утерянных компетенций) и они вместе будут генерировать мусор.
Насчёт заменит - недавно была статья про то, что ИИ не понимает на самом деле что он делает. Глубинно не понимает. В статье был пример:
Спрашиваем чатгпт или ИИ от сбера:
> У Алисы четыре брата и одна сестра. Сколько сестер у брата Алисы?
Ответ у всех примерно одинаково неверный:
> У Алисы один брат и одна сестра. Следовательно, у любого из её братьев также одна сестра — это сама Алиса.
Можно менять количество братьев/сестёр - и всё время ИИ будет ошибаться, не понимая сути. Хотя, один раз он таки мне правильно ответил. Но тут же, на повторный вопрос с другими числами - ответил опять неверно. Как таким системам давать чем-то управлять?!
Второй момент - по поводу отсутствия данных для обучения: есть ещё два этапа - анализ ютубовских роликов и всех видеозаписей. И как следствие умение их генерировать, понимая 3D-сцену. И второй момент - это роботы с датчиками, позволяющими ИИ учиться не на записях о мире (текстовых или видео), а на самом мире - изучать его, пробовать, экспериментировать и т.д. и т.п.
Вопрос только ресурсов. Но тут, возможно, нужно будет поменять в принципе подходы, схемы, строить не в лоб систему, а делать иерархические системы, более похожие на разум живых существ (у нас есть специалисты, которые этим занимаются). Возможно будут иные типы процессоров...
Опасность в том, что ИИ сможет отучить людей от других людей, создать им виртуальный рай с гуриями (если доделают импланты в мозг а-ля матрица) - и из этого виртуального "рая" - люди просто не будут выходить. Сейчас в фейссбуках с "лайками" зависают люди до истерик и нервных срывов, а что говорить о такой виртуальности, где ИИ будет заменять тебе всё. Любую фантазию. Зачем сложный внешний мир, когда в виртуальности - ты царь и бог?
А отказаться, возможно, от этого смогут единицы на сотни тысяч. Точно так же как сейчас от благ цивилизации отказываются отшельники по своим идеалистическим причинам, ради какой-то своей истины и правды, готовые страдать в глуши и трудных (много более трудных) условиях.
Так и там... Человечеству предстоит испытание. На ценность вечного. Правды, труда, истины, любви, бога. Тот, кому это ценно - не примет иллюзию. Многие же другие, кому это неведомо толком - потеряются в виртуальных удовольствиях. Сгинут.
Он не "думает" так вы представляете процесс мышления - когда а воображении создаётся модель и тд.
Он просто ищет подходящие под ответ тексты, по принципу "слово цепляется за слово" и выдает наиболее часто встречающиеся комбинации слов, из предыдущего контекста вытекает следующий шаг в итерации. Получившееся ессно корректируется в процессе (т.н. обучение). Но вот то что вам говорит - походу результат того что в интернетах эта загадка была распространена с варианте "у Алисы четыре брата, сколько сестер у брата Алисы".
Так это не мозг, он не думает, это - алгоритм.
Ну да, но обычно любят аналогии проводить,типа ваш процесс мышления это тоже -такой же - алгоритм, что неверно.
Есть большая разница, при ответе использовать язык лишь для описания объектов, решений, взаимосвязей - либо манипулировать термами как единообразными "кубиками" строя комбинации, опираясь почти только на частотность.
Да нормально современные нейросети думают. И обучаются сравнительно быстро (по сравнению с нейросетями десятилетней давности), но вот никто не выдаëт вам нейросеть с возможностью до обучения. Так-что пока есть ещё большой потенциал для дальнейшего развития.
"Обучение" это же исправление ошибок в построениях полученных при помощи частотности. Ну то есть если удастся найти неверные выводы, то они будут исправлены, цепочка скорректирована - и только.
Так ведь не думают же, а тупо делают выборку из массива данных. Не более того. Чем больше данных и "тоньше" алгоритм выборки, тем ответ "точнее".
Интеллект - это про обработать данные, выявить закономерности и представить их в компактной форме.
У современных нейросетей интеллект сильно ниже человеческого. Но он есть и он проявляется в момент обучения. При общении с чат-ботами интеллект обнаружить невозможно принципиально, потому они в этот момент не обучаются и не могут выявлять закономерности в новой информации.
Смешно. Вы это сами придумали?
Кстати, подметил:
заИИшникипоклонники ИИ используют альтернативное толкование слов, чем и вызывают срач на ровном месте.У меня то хоть какое-то определение интеллекта есть. Дайте своё определение интеллекта, но только не уровня "интеллект дан богом человеку".
При этом естественно определение должно предполагать наличие существ/аппаратов менее интеллектуальных, чем человек.
Ну, то есть - сами придумали. ОК.
Знаете, есть вещи, которые лучше не придумывать, а использовать официально утвержденные. Особенно важно это для значимых сущностей.
Дарю, пользуйтесь.
Хех. Там очень слабенькое определение, от "лириков".
Что значит "способность к приобретению и эффективному использованию знаний"?
А если человек только на работу ходит и ничего особо не приобретает, да и имеющиеся знания не особо эффективно использует. Всё - он лишился интеллекта.
Что значит "способность решать мыслительные задачи"?
А если человек логике не обучен, то всё - человек без интеллекта у нас нашёлся.
И потом страница объяснений уровня: А вот мы тестируем интеллект таким-то таким-то способом. Причём огромное количество из этих тестов современные LLM пройти могут достаточно хорошо.
Приписка "характеризует биологические способности нервной системы" так-же показывает, что очень старое определение.
Круто. То есть ваше определение - оно лучше? Ну-ну, с адекватностью самооценки - присутствуют некоторые сложности.
Больше вопросов не имею.
Так я об этом и говорю.
Вот именно это ИИ и делает – обрабатывает данные по заложенному алгоритму.
То есть, ИИ – это не более чем программа с определёнными целями и задачами. У неё есть начало и конец. Инструмент – "сферический молоток", только хуже, ибо не факт, что будет что-то куда-то забивать должным образом.
Ну... да. Потому что это программа, схема, форма, перфокарта, сито. Произведённая человеком по некоторому подобию человеческих логических рассуждений. Но человек далёк от понимания того, как устроен он сам, поэтому ИИ ещё долго будет лишь "сферическим молотком" до тех пор, пока не будет совершено какое-то открытие в области принципов работы мозга хотя бы простейших червей (если верить Савельеву).
Страницы