Недавно на АШ опубликовали копию статьи, появившейся на ZeroHedge. В ней Илону Маску приписывается стремление организовать новый “Манхэттенский проект», т.е. нечто, сопоставимое по «судьбоносности» с созданием атомного оружия. Упоминаются прорывные «мировые модели» (World Models), которые, якобы, позволят разработчикам Маска в рамках проекта xAI уже в обозримом будущем получить физически осмысленный ИИ, т.е., по сути, сильный ИИ. Кусок экономики, который потенциально способны охватить эти модели, оценивается в 100 трлн. долларов, что сравнимо со всей мировой экономикой. Автор публикации на АШ видит в планах Маска тайный замысел реализовать «Матрицу» для всего человечества под своим контролем. Я, естественно, захотел разобраться – сколько лет, примерно, мне осталось жить вне «Матрицы»?
Кратко об истории вопроса
В одной из своих предыдущих публикаций я писал о трёх путях развития и совершенствования ИИ, как они видятся известному учёному-футурологу из Оксфорда Нику Бострому:
- Инструментальный ИИ
Успехи нейробиологии в изучении функциональности мозга, позволяют использовать принципы организации обработки информации в мозге для создания моделей ИИ. За 70 лет работ по ИИ пройден путь от «старого доброго ИИ» (GOFAI) (в его основе лежит утверждение, будто все интеллектуальное поведение может быть представлено с помощью системы, которая формирует логические рассуждения на основании множества фактов и правил, описывающих рассматриваемую проблемную область) до современных нейросетевых моделей, основанных на машинном обучении. Низкоуровневое моделирование мозга не предполагается.
2. Полная эмуляция головного мозга человека
Идея, основанная на физикалистском представлении о том, что сознания и мышление – прямые продукты работы человеческого мозга. И стоит только воспроизвести мозг во всех подробностях, путём сканирования и точного воспроизведения его вычислительной структуры, как автоматически мы получим и сознание, и мышление. Работы в этом направлении ведутся ( я рассматривал их в статье по органоидному интеллекту), но успехи их скромные, а перспективы, на мой взгляд, крайне сомнительные.
3. Усовершенствование когнитивных способностей самого человека
Выдвигаются предложения использовать прямой нейрокомпьютерный интерфейс, в частности, имплантаты, что позволит человеку использовать всю мощь электронных вычислений: идеальное хранение информации, быстрые и точные арифметические расчеты, широкополосную передачу данных — в результате такая гибридная система будет принципиально превосходить по всем характеристикам деятельность головного мозга. Рассматривается и итеративная селекция эмбрионов. Речь идёт, фактически, об евгенике, создании сверхчеловека. Здесь, кстати, в лидерах Илон Маск со своей Neuralink.
Свои идеи Бостром высказал в 2014г. Прошедшие годы внесли существенные коррективы. Сильно продвинуться в «антропоморфных» направлениях 2 и 3 не удалось. Главным образом, по причине серьёзной технической сложности реализации и существующих регуляторных и этических ограничений на работу с человеческим мозгом. Поэтому, основные усилия сосредоточены в инструментальном ИИ.
Здесь можно выделить три главных стратегии:
1. Масштабирование существующих моделей
Предполагается, что если продолжать увеличивать масштабы современных моделей машинного обучения (в первую очередь трансформеров), а также число параметров, объёмы данных и вычислительных ресурсов, то в какой-то момент система самопроизвольно приобретёт общие когнитивные способности — аналогично тому, как масштабирование языковых моделей привело к появлению «проявляющихся» (emergent) способностей.
2. Нейроморфное моделирование разума
Это продолжение усилий по созданию ИИ на основе более точного моделирования человеческого разума — через нейроморфные вычисления (в стиле органоидного интеллекта), когнитивную архитектуру или гибридные системы, сочетающие символическую логику и нейросети. В рамках инструментального ИИ это самый «человекоцентричный» подход (хотя и не совпадает по ряду параметров с направлением 2 от Бострома).
3. Обучение в среде – эволюционный или агентный путь (Embodied AI)
Развитие ИИ через взаимодействие с реальным или симулированным миром — как у детей или животных. ИИ развивается как автономный агент, который учится методом проб и ошибок, получая обратную связь от среды «обитания». Попытка повторить (многократно быстрее) путь, который проделал человеческий разум в процессе эволюции.
Я уже обсуждал особенности и перспективы первой стратегии (здесь) и второй стратегии (здесь). В обсуждаемой статье про «матрицу Маска» упор делается на третьем пути, который сейчас активно развивается сразу в нескольких проектах – Robotics (OpenAI), Agent57 (DeepMind), Habitat (Meta). Пытается не отстать и Маск со своим xAI. Рассмотрим особенности и перспективы этого подхода подробнее.
Воплощённый ИИ – за и против
Обсуждая пару лет назад вопрос о перспективах больших языковых моделей (LLM) стать сильным ИИ, я утверждал:
моя позиция состоит в том, что создание сильного ИИ с необходимостью предусматривает воссоздание всей палитры процессов, входящих в понятие «субъективного опыта». И мышление здесь – лишь составная часть этого опыта, которую, в индивидуальном сознании, просто нельзя считать полноценной без остальных частей. И чтобы стать «сильным» и научиться «действительно» мыслить, ИИ, с необходимостью, должен пройти весь тот путь, который проходит средний человек, обучаясь и накапливая жизненный опыт. Можно лишь ускорить эти процессы, но нельзя их ничем заменить! А для этого, и об этом я уже неоднократно писал, такой ИИ должен быть «воплощён» в мире, то есть иметь неограниченную (по крайней мере, такую же, как и любой человек) возможность взаимодействовать с окружающим миром. Получать любую доступную информацию, влиять на происходящее, добиваясь нужного для себя результата и т.п.
Теперь это очевидно для многих. Отсюда обилие проектов «воплощённых агентов». С чего всё началось, и как это работает?
Почти всякая работа по этой теме упоминает «фундаментальную» публикацию Дэвида Ха и Юргена Шмидхубера «Can agents learn inside of their own dreams?» (Могут ли агенты обучаться внутри своих снов?). Это презентация, которая размещена на github.io в 2018г., так что степень её фундаментальности каждый может оценить самостоятельно. Вообще, этот Шмидхубер известен как один из создателей LSTM (Long Short-term Memory) - рекуррентных нейросетей, способных для своего обучения использовать прошлый опыт. Кстати, в 2019г. он был приглашён Грефом выступить на конференции Сбера AI Journey (я смотрел запись его выступления и рассматривал это событие здесь). Там он, в частности, утверждал, что создать сильный ИИ просто. Достаточно научить агент улучшать свои действия в окружающей среде, пользуясь датчиками для обратной связи («боли» при натыкании на препятствие, «голода» при низком заряде батарей и т.п.): «Всё это можно сделать в нескольких строках кода, и мы это сделали 30 лет назад».
Некоторое время эта работа воспринималась как любопытный казус, но огромный прогресс в вычислительных мощностях процессоров, ориентированных на ИИ-задачи, привел к прорыву (как и в случае LLM-нейросетей), сделав маловероятное возможным. Появились «мировые модели» (World Models - WM), которые, как раз, должны быть достаточно сложными, чтобы иметь практический смысл, для чего и нужны были огромные вычислительные мощности. Цель – научить ИИ тому, как люди и животные используют внутренние модели мира для принятия решений без необходимости пробовать всё на практике, опираясь на весь накопленный опыт.
Что такое WM? Кратко – это первый шаг на пути «воплощения» ИИ в реальном мире, взаимодействия с ним. Человек взаимодействует с реальным миром посредством пяти (шести?) органов чувств и обладает развитыми актуаторами (тело, руки, ноги и т.п.) для приспособления себя к миру и изменения мира под себя. На текущем уровне технологий скопировать полностью человеческое тело невозможно. Остаётся создать виртуального агента, живущего в виртуальном мире. Причём, мир должен быть достаточно сложным, в идеальном пределе сравнимым по сложности с реальным миром. Тогда появится шанс, что на каком-то этапе виртуальному агенту позволят выйти из клетки и выпустят в реальный мир. Именно на это делает ставку Маск в своём проекте xAI. На чём основан его оптимизм?
В отличие от традиционных моделей, таких как большие языковые модели (LLM), которые работают с статистическими корреляциями в данных, WM стремятся к причинно-следственному пониманию физики и динамики реального мира. Модели строятся так, чтобы:
- представлять текущее состояние среды в компактной форме, минимизируя потребные расчёты
- предсказывать будущие состояния при различных действиях,
- планировать и принимать решения, «воображая» последствия своих действий — без взаимодействия с реальной средой.
Здесь у меня возникает вопрос: смогут ли WM вывести фундаментальные законы физики только на основе обучающих видео и сенсорных данных? Ведь если ответ однозначно отрицательный, то стоит ли «огород городить»? Так как в реальном мире такой агент не сможет действовать адекватно во всех ситуациях. Изучение публичных данных показывает, что модели могут выучить лишь приблизительные правила динамики, наблюдая за тем, как объекты движутся, сталкиваются, падают. Например:
- Если шар катится с горки, он ускоряется.
- При столкновении два объекта отскакивают с сохранением импульса (в среднем).
- Объекты не проходят сквозь стены.
Модели уже могут предсказывать последствия некоторых действий в виртуальном пространстве, обобщать события на новые сценарии (например, другой угол падения). Конечно, модель не выведет закон всемирного тяготения или уравнения Максвелла. Она не предскажет поведение на Луне, если обучалась на земной гравитации. Она не формулирует закон, а использует принцип чёрного ящика. Поэтому, это не физика, а статистическое моделирование с элементами причинности. В чём тогда смысл и перспектива? Симуляция реальности, активное обучение и символьное рассуждение могут стать мощным инструментом для открытия эмпирических закономерностей, особенно в сложных, масштабных системах (климат, биология, робототехника).
Итак, концепция, которая вдохновляет исследователей: хорошая модель мира – это не та, которая знает все уравнения, а та, которая может предсказать, что произойдёт, если ты сделаешь ВОТ ЭТО.
Кажется, именно это, а не сомнительная перспектива поместить всех в Матрицу, привлекает в этих моделях Илона Маска. Ранее сообщалось, что на заводах компании Тесла два человекоподобных робота Optimus работают полностью автономно. Тот же источник информирует, Илон Маск заявил, что роботы Tesla Optimus могут поступить в продажу уже в следующем, 2025 году, по цене «менее половины автомобиля» — то есть примерно 25 000 долларов. Пока, однако, Optimus ещё не доступен для продажи. Но ход мысли и намерения Маска, на мой взгляд, ясны.

World Models – реальный путь к сильному ИИ?
Есть мнение, которое не все разделяют, что сильный ИИ отличается от слабого именно наличием сознания. Ранее я подробно рассматривал тему «сознание у ИИ». Ответ на вопрос о «сознательности» ИИ, естественно, зависит от того, а что понимать под сознанием? Академик К.В.Анохин считает, что вопрос о сознании у ИИ сводится к выяснению может ли ИИ обладать субъективным опытом, иметь внутренний мир, переживать собственное бытиё, обладать самосознанием (осознавать себя как субъекта, отделённого от мира).
Не все разделяют такой подход. В частности, практики, занимающиеся проектированием нейросетей, машинным обучением и т.п., нацелены на конкретный результат и не заморачиваются философскими проблемами. Свежий наглядный пример – лекция Ивана Оселедеца (профессор Сколтеха, сотрудник института ИИ AIRI) «На пути к сильному ИИ» на фестивале Наука-0+ в Москве в октябре 2025, которую я посетил (и пожалел о потраченном времени). Он заявил, что «когда мы говорим о сильном ИИ это всё связано с LLM-ками» и далее довольно сумбурно излагал как хорошо обучать LLM-модели и правильно задавать им вопросы (prompt), чтобы они могли успешно работать в Сбер-Медицине или Сбер-колл центре. Сила, по Оселедецу, достигается когда LLM начнёт выполнять свои функции достаточно хорошо, без ошибок. Он яркий представитель (хотя, может, и не догадывается об этом) функционализма. Согласно функционализму, сознание — это результат определённой организации информации и вычислений, независимо от носителя (мозг или кремниевая схема). Если ИИ будет выполнять те же функции, что и человеческий мозг, он может быть сознательным. И даже сильным. А будет ли у него, в качестве бонуса, опыт, переживания и т.п. – не так уж и важно.
Считается также, что сознание может «вдруг возникнуть» (emerge) у систем ИИ по мере их усложнения. Само собой, без специальных усилий. Так, Илья Суцкевер (один из главных разработчиков ChatGPT) придерживается точки зрения, что с ростом размеров нейронной сети и объёма обучающих данных сознание у неё, на каком-то этапе, появится автоматически.
Такие взгляды вряд ли следует учитывать в серьёзной дискуссии, так как они игнорируют принятую терминологию и подменяют понятия (выдают за сознание то, что им не является). Важно констатировать, что современные ИИ, включая большие языковые модели (LLM), такие как GPT, Claude, Gemini:
- не имеют внутреннего опыта.
- не понимают смысл слов — они предсказывают последовательности токенов на основе статистики.
- не обладают памятью в реальном времени, целями, желаниями или самосознанием.
То есть – не являются сознательными (по Анохину, Джону Сёрлу и т.д.). А что нового привносят WM по сравнению с теми же LLM?
LLM-модели статистически обрабатывают огромные массивы разнородных данных, «обучаясь» на показательных примерах, как правильно отвечать на запросы. Они могут удерживать контекст внутри конкретной «беседы», но никаким долговременным опытом не обладают: достаточно задать модели один и тот же запрос с некоторым временным интервалом, и вы можете получить заметно разные ответы, в зависимости от того, какие источники (если в «размышлении» задействован интернет-поиск) использованы для формирования ответа. Случаются и «галлюцинации», когда ответы вовсе не релевантны (в отсутствии опции интернет-поиска).
WM проектировались так, чтобы приобретать и использовать опыт, во многом копируя человеческое мышления. Однако существующие модели имеют ряд серьёзных ограничений. Да, они, подобно ребёнку, учатся через взаимодействие, формируют и проверяют гипотезы, корректируя свои внутренние представления о среде «обитания» на основе полученных результатов. Их учат сжимать объёмные данные о среде (например, изображения) в компактные представления, подобно тому, как это делает человеческий мозг, создавая обобщённые образы и отбрасывая несущественные детали (если вы не Шерлок Холмс, вы не вспомните сходу сколько ступенек у лестницы вашего дома или какую температуру обещали на завтра в Магадане в утреннем прогнозе погоды). Чтобы «знание» не пропало, WM используют буферы воспроизведения (replay buffers), что позволяет использовать прошлый опыт и избежать «катастрофического забывания» (специальный термин, обозначающий типичную ситуацию, когда модель, обучаясь новому, забывает предыдущие навыки).
Звучит заманчиво. Обещает перспективы. В чём проблемы и ограничения?
- Даже в сравнении с прожорливыми LLM мировые модели требуют гораздо больших вычислительных мощностей, а, значит, и энергетических ресурсов.
- Модели, по-прежнему, «кормит» и обучает человек, поставляя исходные данные для формирования «среды обитания». Если в этих данных присутствуют неточности, стереотипы, то WM унаследует и «разовьёт» их.
- Несмотря на формирование «опыта» и обучение понимать причинно-следственные связи, модели далеки от истинного понимания не просто того «что случится», а «почему случится». Они не могут следовать здравому смыслу.
- У моделей отсутствует (и вряд ли появится) субъективный опыт – у них нет сознания и настоящих внутренних переживаний (а не имитаций). Они не чувствуют, что такое обжечься или испугаться (хотя и могут описать такие состояния) – а это составляет большую часть человеческого опыта.
Главное же ограничение WM в том, что они работают в виртуальном, а не реальном мире. В них не запрограммированы законы физики, химии, биологии (даже в том, ограниченном, виде, в котором они известны человеку). Тем более, все нюансы человеческих взаимоотношений. Модель учат выявлять статистическую корреляцию, которая в большинстве случаев соответствует физическому (химическому и т.д.) закону с приемлемой для большинства задач точностью. Для большинства – но не для всех! Поэтому, неизбежны ошибки в нестандартных ситуациях. Например, многократное наблюдение траекторий брошенного камня не поможет предсказать поведение детского мячика тех же размеров, если этот «опыт» отсутствовал в обучающих данных. Да, опыт можно пополнять всё новыми данными и реальными ситуациями, но для того, чтобы учесть все возможные, учёным, работающим с моделью, придётся включить «режим Бога», который, по некоторым представлениям, и обучает до сих пор самого человека.
Возможный выход из ситуации - выпустить агента в мир, «воплотить» его, оснастив датчиками для восприятия реальности и актуаторами для воздействия на неё. И дать самому обучаться на реальных данных. Именно к этому, в пределе, и стремятся разработчики мировых моделей.
Рассмотрение вопроса о том, хорошая ли это идея, выходит за рамки этого сообщения.
Итоги
1. World Models (WV) - наиболее перспективный, из существующих, путь к созданию сильного ИИ. Это связано с растущим пониманием того, что для достижения человеческого уровня ИИ должен накапливать субъективный опыт через взаимодействие со средой, а не только через статистическую обработку данных.
2. WV — это шаг к «воплощённому ИИ» (Embodied AI), который учится в виртуальной (в перспективе - в реальной) среде, предсказывая последствия своих действий. Однако эти модели пока ограничены, так как не «знают» фундаментальных законов физики, требуют огромных вычислительных ресурсов и критически зависят от качества и полноты обучающих данных.
3. Современные ИИ, включая LLM и WV, не обладают внутренним миром, самосознанием или настоящим пониманием причинно-следственных связей. Их «опыт» — это имитация, а не переживание.
4. Практическая цель Илона Маска — не создание «Матрицы», а разработка автономных систем, таких как робот Optimus, способных эффективно действовать в реальном мире (в конкретном, чётко заданном участке этого мира, с фиксированными и простыми «правилами игры»).. Это может привести к коммерческому успеху, даже если сильный ИИ не будет достигнут в ближайшее время.
5. Несмотря на оптимизм отдельных исследователей, серьёзные технические и философские препятствия (например, необходимость воспроизведения в ИИ субъективного опыта) пока не преодолены. Сроки и перспективы появления сильного ИИ остаются туманными.
В целом, подход через мировые модели выглядит логичным следующим шагом в развитии ИИ, но путь к созданию по-настоящему разумного агента, способного к самостоятельному обучению и адаптации в непредсказуемом мире, остаётся долгим и сложным.
А что гибридный интеллект не рассматриваете? Ведь любая мышь умнее вашего ИИ.


Комментарии
Без ИИ, скажите, а где на клавиатуре вы нашли вот эти шарики в начале строки ? )
без шариков понятно что написано ИИ.
Достали, просто достали генерацию пихать.
Надеюсь, модератор за статьи, которые чуть менее чем полностью состоят из бредогенерации и не скрыты, давать отдохнуть на полгодика от АШ.
Вон, афинодеев например, плевал на всех – уже пару томов Войны и Мира тут опубликовал.
Откуда такая неуверенность в подчеркнутом тексте, конечно это все будет присутствовать в полной мере. С учетом невозможности точного моделирования мира, там ничего кроме этого и не будет по большом счету. Ну, кроме математики возможно, так как это про символьные системы, а не реальный мир, и то под вопросом, если вспомнить все еще идущий спор между конструктивной и классической математикой.
Ну и вопрос цены все-таки ключевой. Если ИИ обучается на событиях реального мира, то поток событий - достаточно разреженный, и все время пока ИИ учится его нужно кормить. Для быстрого обучения нужна сильно неустойчивая система, но для неустойчивой системы получиться такая же хрень как с обучением людей, раз на раз не будет приходится. Ну еще придется делать изоляцию юного ИИ от других таких же юных ИИ, чтобы друг друга плохому не научили. А если еще тексты в интернете давать читать, то вообще результат непредсказуем. В общем неочевидно, что результат будет заметно лучше и дешевле людей, а выпалывать ошибки обучения может быть сложнее.
Наоборот! Очевидно что перспективно и в итоге будет лучше и дешевле.
Достаточно обучить один раз, а потом Ctrl^C+Ctrl^V и вот у вас уже целая армия ботов ;)
Формально Вы правы. На деле, точного моделирования для огромного числа задач и не потребуется. Средний человек тоже не напишет уравнения Максвелла и точную формулировку закона всемирного тяготения. Они "даны ему в ощущениях". На это и расчёт - получить "ощущения" сначала для ограниченного (как у роботов Маска), а затем - всё более широкого круга задач. Научиться предсказывать и планировать, зная "как будет", но не понимая "почему будет". Этого достаточно на обозримую перспективу.
Повторить человеческую эволюцию в реальном времени - так вопрос не стоит. Виртуальная среда призвана многократно ускорить этот процесс, симулируя достаточно простые случаи взаимодействия со средой. Когда и если потребуется выпустить ИИ в реальный мир для обучения - потребуется другой уровень технологий и понимание всех связанных с этим рисков.
А обычное сознание гомосапиенса так и существует. Можно подумать, поджигая газ в конфорке, обыватель понимает все химические реакции. В пределах своей профессии какое-то понимание "почему" присутствует. И то, у большинства сильно неполное.
Разница в том, что что существуют "сапиенсы", которые знают "почему", и на основе этого знания устроили "газ в конфорке" для всех остальных. Это знание социума.
Если ИИ этого не знает, то ему, грубо говоря, не у кого спросить.
Нет вообще ни одного сапиенса, досконально знающего "почему" весь процесс от создания аппаратуры для добычи газа и до его сгорания в конфорке. А те сапиенсы, что изначально притащили в общество огонь, понятия не имели, "почему". Отдельный сапиенс знает "почему" в очень узкой части своей профессии. Вся остальная его жизнедеятельность, выходит, не сознательная.
Полная? Видимо имелось в виду точная... Эмулировать то что не до конца понятно как работает (а нейрофизиологи по итогам очередного года хвалятся что они выяснили в работе мозга нового (да что тма работа - даже в картографировании областей не всё понятно)) заведомо невыполнимая задача, не?
Да вообще никто не знает - как человек мыслит.
И не узнает никогда.
Нынешний ИИ - это холст в камине папы Карло.
Про холст - красивый пример
Человек, предложивший этот способ - Ник Бостром - не нейробиолог.
Он наивно полагал, что "когда-то в будущем" можно будет просто воспроизвести структуру мозга на молекулярном уровне, не обязательно представляя, как это всё работает. По типу того, как сейчас это делают 3D-принтеры в гораздо более простых случаях. Тогда, якобы, одинаковое строение гарантирует одинаковое функционирование.
Реальные сложности на этом пути - огромны. Я рассматривал их подробно в статье по органоидному ИИ
С мозгом всё сложно... По сути чтобы скопирова его требует скопировать как структуру взаимосвязей отдельных клеток(квнтов мозга), так и его "прошивку"... И при этом постоянно ему скармливать определённую инфу в определённой дозе... Пример того что с реальным мозгом случается если его владелец сильно налегает на ИИ тому пример.
Я уже писал ранее, обсуждая мысленный эксперимент "Китайская комната" Джона Сёрла, что скопировать мозг китайца в надежде получить органоид, знающий китайский язык - недостаточно. Надо умудриться скопировать весь его жизненный опыт и "прописать" его в искусственном мозге.
в романистике это уже сделал профессор Преображенский.
Результат известен.
"Объясните мне, пожалуйста, зачем нужно искусственно фабриковать Спиноз, когда любая баба может его родить когда угодно. Ведь родила же в Холмогорах мадам Ломоносова этого своего знаменитого. Доктор, человечество само заботится об этом и в эволюционном порядке каждый год упорно, выделяя из массы всякой мрази, создаёт десятками выдающихся гениев, украшающих земной шар."
Согласен с Вами.
Но, учитывая технократический путь, по которому пошла наша цивилизация, избежать попыток "стать Богом" не удастся.
Технократический путь хорошо сформулировала в свое время IBM. "Человек должен думать, а машина работать".
Принципиальное отличие текущего момента, что погрязший в педерастии золотой миллиард, уже даже думать не хочет.
Принципиальное отличие в том что ИИ должен заменить человека там где он должен проявлять волю думать.
Воля - вот что отличает индивидуума с интеллектом, от машины.
Я даже боюсь представить развите лозунга IBM "ИИ - должен думать, машина работать, человек - сосать и хихикать."
Вроде бы такая технократия получается?
Но такой Ломоносов один на 100500 млн рожденных
Если вероятность пересчитать на 1 конкретный сперматозоид - думаю рождение Ломоносова менее вероятно что чем существование вселенной. Однако появился.
В квантовом мире существует все. Вопрос лишь вашего участия в запутанностях.
Илон Маск - талантливый неудачник.
К тому же, мозг человека - это не нагромождение нейросетей.
Ничего у него не получится.
Но деньги потратить сможет.
США должны как-то быть разрушены.
Трудно с Вами согласиться.
Есть конечно проблемные проекты, типа гиперлупа или бурения тоннелей, но большинство - коммерчески успешны.
Коммерсант он - от Бога.
Умные роботы в среде заводов Маска - реальная перспектива.
А США, безусловно, должны быть разрушены как государственная система!
Он удачлив материально в неудачных проектах в принципе.
И вполне может быть президентом США.
Если бы не место рождения.
Да все уже, хватит развивать ИИ, он уже отлично слова складывать научился, не понимает ничего, правда, попугай на стероидах.
Вы ошибаетесь.
Поскольку человеческий разум не только является воплощенным, но так же является распределенным и расширенным.
Так такой модели модели которая бы воспроизвела человеческий разум, поскольку разум это "все модели" и метастабильный негэнтропийный поток в динамическом пространстве энтропийных потоков.
1. Из того, что путь наиболее перспективный, не следует, что им можно дойти. Просто, он лучше прочих.
2. Насчёт "распределённый и расширенный" требуется уточнение для продолжения дискуссии. А также разъяснение терминов, которые выходят за рамки принятых представлений.
Если разум - "метастабильный поток", то как он связан с мозгом и как функционирует?
Куда дойти?
Лучше чем что? 
Все современные действительно большие LLM имеют ядро "модели мира". Это было доказано и наглядно показано Anthropic.
Но дело в том что все интеллекты коллективы, и разум тоже коллектив. Но что более важно, разум это воплощенный в сети интеллектуальных агентов модельно-зависимый реализм. Получить разум простой репрезентацией модели не получится, запустить когнитивную эволюцию в модели невозможно, поскольку Гедель.
Но вы же знаете концепцию воплощенного разума и прямо пишете про мультиагентные системы, предполагается что знаете концепции расширенного и распределенного разума и теорию когнитивной эволюции. Возможно даже знаете это проект: https://github.com/paradigms-of-intelligence
В данном случае видимо потребуется не просто уточнение терминологии, речь идет про онтологию социальной реальности. Но если кратко список литературы будет не только большим, но и сложным для понимания:
Распределённый разум (Distributed cognition)
Эмпирическая классика: исследование навигации на корабле как пример когниции, распределённой между людьми и артефактами. Базовый кейс-стади для всей дисциплины.
Теоретическая систематизация подхода и связь с дизайном интерфейсов.
Сборник работ о распределённом познании в образовательных и психологических контекстах; полезен для методики измерений/экспериментов.
Практическая перспектива на артефакты как «внешнюю память» и инструменты когниции.
Методологические и педагогические разработки по распределённой когниции в обучении и HCI.
Расширённый разум (Extended mind / Extended cognition)
Манифест: критерии «вхождения» внешних элементов (записная книжка «Отто») в систему когниции — ключевой текст для A1/A3.
Развёрнутая философско-когнитивная аргументация за embodied/embedded подходом.
Обновление и углубление взглядов на расширение разума (технологические импликации).
Важны для понимания контраргументов: границы, интеграция и критерии «включения» артефактов.
Антология статей, которая охватывает аналитические и эмпирические дискуссии вокруг идеи.
Модельно-зависимый реализм (Model-dependent realism)
Ввели термин «model-dependent realism»: идея, что «реальность» — то, что успешно моделируется, и что разные модели дают разные, равноценно полезные «реальности». Центральный исходник для этой метафилософской позиции.
Философия науки о том, что теория = способ представления + способ интервенции в мир; близка по духу к model-dependency.
Constructive empiricism — альтернатива «твёрдому» реализму; полезен для контраста и методологической критики «реализма».
Теоретическая литература о ролях моделей, их ограничениях и перформативности — полезно для связки A4 и model-dependent realism.
Когнитивная эволюция (Cognitive evolution / cultural & biological coevolution)
Историко-эволюционный взгляд: переходы в когнитивных режимах (от инструментального к внешней символике и т. п.).
Акцент на коэволюции языка, символов и мозга — ключевая работа по происхождению человеческой символической способности.
Доказывает, что многие человеческие когнитивные черты — результат совместной социальной/культурной жизни и совместных действий.
Теория культурной эволюции, роль социального обучения и накопленной культуры в когнитивной адаптации.
Аргумент о том, что многие «высокие» когнитивные механизмы — культурно сконструированные «инструменты» (gadgets), а не врождённые модули.
Механизмы, куда организмы (и человеческие культуры) активно изменяют свою среду — важны для co-evolutionary подхода.
Хорошее методологическое и эмпирическое введение в field культурной эволюции.
Попросил ИИ быстро собрать все в одно месте. Но последних работ тут нет. В этом месяце была просто убойная по содержанию работа: https://advanced.onlinelibrary.wiley.com/doi/10.1002/advs.202509872?af=R Формально она конечно про старение, но не только.
Но поскольку вы все это читать не будете, то кратко в форме аксиоматики выдранной из одной интересной модели:
Не совсем точно. Да, Claud 3.5, действительно, способна к "планированию", удерживает контекст до 200к+ токенов (типа память-опыт) - вроде демонстрирует когнитивное агентское поведение. Но ни по архитектуре, ни по способу и принципам обучения - это не "модель мира". Её "опыт" - это коллективный опыт всего человечества, предоставленный в её распоряжение, а не приобретённый. Мировые модели заставляют нарабатывать опыт самостоятельно (на основе внешних данных, конечно).
Другое дело, что эти подходы сближаются в рамках общей гибридной архитектуры.
Что касается расширенного и распределённого разума, когнитивной эволюции, я, в принципе, понял суть подхода.И он существенно выходит за рамки контекста данной работы. Понимая всю важность социо-культурного фактора в формировании и функционирование сознания, я намеренно ограничился индивидуальным сознанием. Подобно К.Анохину, который рассуждая о когнитивном агенте, в структуре которого развивается "эпизод сознания", всё же избегает такого расширительного толкования. Принцип - от простого к сложному.
Речь идет об этом: https://www.anthropic.com/news/golden-gate-claude
Anthropic буквально вскрыли LLM Claude и посмотрели память, а в памяти есть "модель мира" когда изменение одного параметра меняет все. Были еще исследования по "злонамеренности" ИИ, что тоже показали наличие "модели мира". Но вы кончено говорите прежде всего про физическое моделирование мира как это делается в NVIDIA Isaac, но забываете что это тоже в конечном итоге получится векторное представление. Так в чем разница? Google Gemini тоже умеет предсказывать физику мира. Как и банальные генеративный ИИ для создания графики и видео тоже могут прекрасно предсказывают физику просто потому что строят реалистичные изображения. Опять вопрос в чем разница?
Подумайте над тем что вы сейчас написали. Ранее уже прямо писал - вы не можете отрицать коллективную природу человеческого познания, потому что это находит простейшее эмпирическое подтверждение. Коллективное познание наблюдаемая реальность. Но вы тут же пишите:
Ой, а кто конкретно будет "нарабатывать опыт"? Отдельные агенты или мультиагентная система в целом? Вам следует определиться как на самом деле это работает. Потому что если вы говорите "этот подход правильны", то вам прежде всего придется признать коллективную природу человеческого разума, признать что он является расширенным (включает в себя общественных институты и инструменты как "внешняя память"), является общим когнитивным полем сети интеллектуальных агентов (социальная природа человека) и в единственном числе просто не существует, как и нет его в отдельном мозге. Доказательство - Маугли. Но если вы это признаете, то и сами поймете что предложенный метод World Models это не про сверхразум, а простое решение задачи роевого интеллекта и практической задачи создания инфраструктуры для решения парадокса Моравека. В точности как это предложили NVIDIA Isaac. Это даже не про высокие когнитвиные способности, а про создание безупречных искусственных рефлексов. И нужно это Илону Маску потому что он опаздывает, а роботы андроиды на заводах ему очень нужны. Причем предлагается снова решить задачу "математической кувалдой".
Естественно, как и затея Илона Маска не имеет отношения к "сверхразуму". Но если мы обсуждаем действительно интеллект, то есть такое: https://aftershock.news/?q=node/1319135 И заметьте, все это обсуждалось еще в 2023 году. А сегодня речь идет о совсем другом уровне понимания процессов в основе разума и когнитивной эволюции.
И напрасно. Невозможно рассматривать индивидуальное сознание без контекста "общественного сознания" как эпистемологического поля познания. А эпистемологическое поле невозможно рассматривать без учета того факта что общество это диссипативная система существующая в физической реальности. Вот и получается только холизм и социальная и коллективная природа интеллекта и разума. Культура определяет генетику, а не генетика культуру. Наши инструменты как "внешняя память" буквально формируют структуры нашего мозга. И мы все функционально одинаковые интеллектуальные агенты занятые оптимизацией нашей культуры и хозяйственных практик. Общей культуры и общих практик. Все человечество единый когнитивный организм, но непреодолимая ограниченность наших когнитивных способностей формирую модельно-зависимый реализм, что требует избыточности онтологий как путей путей/сетей в эпистемологическом поле.
Вы про какого Анохина? Про создателя теории функциональных систем? А потом была кибернетика второго порядка и предиктивное кодирование Фристона. Или вы про нынешнего Анохина? Про сознание уже тут дал ссылку: https://www.sciencedirect.com/science/article/pii/S0149763425002970
Самое простое и сложное одновременно в данном вопросе понять коллективную и социальную природу разума. И тогда все остальное очень просто. Поскольку это тоже самое что сменить геоцентрическую систему мира Птолимея на гелиоцентрическую систему мира Коперника. Но реальность становится намного проще для понимания.
Спасибо, внимательно почитаю, чтобы понять, как они "вскрыли память"
ТС, обратите внимание, что линейные "причинно-следственные связи" это модельная фикция!
Человек всегда имеет дело с деревом или сетью, с циклами/повторениями...
Отдельное спасибо за блог на Дзене
Я не настолько хорошо знаком с математикой этих моделей, но, думаю, что связи, как раз, не линейные. По крайней мере, они должны "переставать быть линейными" по мере усложнения среды и роста количества обучающих данных. Иначе ИИ не продвинется дальше простейших задач, а это - не интересно для амбициозных разработчиков.
ИМХО, отрицание Создателя и привлечение фиктивной Эволюции - основная ошибка всех "физиологов", включая обоих Анохиных. Их системные, функциональные, операционные прочие термины ясности в понимание "механизмов" Сознания не добавляют.
Сознание - это процесс, а не механизм. Не путайте мозг (ОР) с сознанием (СР).
Может Маск уже изобрел датчик подключения к Пси полю (богу)?
Как только, тут ему и попрет. :о)
Несколько мыслей в одном комментарии.
К.Анохин, безусловно, разделяет мозг, разум и сознание. А также считает, вслед за У.Джеймсом, что сознание - процесс, говоря о "потоке сознания".
Привлечение в схему рассуждений Создателя, полностью меняет всю дискуссию и выводит её за "естественно-научные рамки".
Хотя, я совсем не отрицаю, что такая дискуссия имеет смысл и, по-своему, интересна.
Ничего принципиально не меняется. Задача из чисто исследовательской становится реверс-инженерной.
Она была бы "реверс-инженерной", если бы Создатель поработал 7 дней и удалился на покой.
А так, в режиме Создатель-онлайн, проблема существенно усложняется!
Если он онлайн, то он очень, очень-очень-очень медленный. Мы быстрее разбираемся чем он что-то новое внедряет... По крайней мере за все время наблюдений никаких модификаций не зафиксировано.
Если Он, действительно, онлайн, то все происходит по его плану, который нам неведом.
Можно лишь предположить, что нам дано пройти до логического конца тупиковый путь технократической цивилизации.
Разработки в области ИИ - верный признак такого развития событий.
С чего это технократический путь тупиковый? Наоборот, это единственный выход из этого лабиринта ;)
К белкам потом снова можно будет вернуться, но уже с полным комплектом технической документации и пониманием как это работает.
Какой Анохин? Старый академик Анохин который догадался об "опережающем отражении реальной действительности" из чего получилось "принцип свободной энергии" Фраистона?
Ну так есть такая отличная статья по сознание https://www.sciencedirect.com/science/article/pii/S0149763425002970
Нет, этот "молодой" (68 лет) - Константин.
Старый - его дед, Пётр Кузьмич, автор теории функциональных систем, на которую опирается в своей теории когнитома Константин, его внук.
Посредственно опирается. Разум по наследству не передается. Только связи.
Да что вы к Матрице привязались?
А вот лично я верю, что у Маска получится сделать робота, который умеет таскать мешки, подметать и принимать команды от людей в голосовом виде и махания руками, уровня: Ящики с кофеварками неси туда, ящики с чайниками - сюда, а про ящики с лейками съезди на третий склад и спроси, куда поставить.
Все необходимые для этого технологии УЖЕ наличествуют.
Примитивно - да не проблема.
Маршруты и алгоритмы действий в строго ограниченной и прописанной среде. Да.
Пример: Взял робот коробку, а у коробки дно расклеилось, банки высыпались на пол и раскатились. Дальше его действия? А если болты или гайки? Задача на несколько порядков усложнилась, как програмно, так и на уровне механизмов исполнения (руки, пальцы итд.).
Это, для человека, просто пустячок. Ему даже задумываться об этом не надо. :о)
надо пример получше, потому что вопрос: что дешевле, сделать нерасклеивающееся дно или сильно усложнить носильщика - можно считать решённым
Давайте с этим примером разберемся.
Примем, что в пластмассовом ящике болты и гайки. Программный или механический сбой у робота который его несет. Ящик падает и содержимое рассыпается. Роботов на участке двигается 10 шт.
Они начинают падать (терять равновесие) наступая на россыпь. Участок или линия остановлены.
Не учитывать эти моменты, при проектировании и использовании роботов, надеяться на авось. :о)
И таких моментов, в реальном мире, будет множество.
Ограниченный в операциях функционал и не более. В наше время пока так. Будущее покажет как там будет.
С уважением.
Чёт ничего не поменялось) Если будет дешевле сделать крышку ящика с защёлкой (чем нанимать человека для сбора рассыпи) - сделают с защёлкой
Тогда простой вопрос.
Зачем и при чем тут сочетание букв ИИ?
Асу и программно аппаратные комплексы уже много лет успешно используются и работают.
Страницы