Spydell: Современные LLM [т.н. ИИ] - тупиковая ветвь технической эволюции

Аватар пользователя shepgot

Главу Nvidia Дженсена Хуанга можно понять – он промоутирует вычислительные кластеры, с которых зарабатывает сотни миллиардов, разогрев капитализацию своей компании выше 4 трлн. В его картине мира вычислительные кластеры нужны всем и каждому в неограниченных количествах и всегда. 

В представлении многих промоутеров ИИ (ключевые фигуры текущих ИИ вендоров) экспансия ИИ только начинается, я же выскажу абсолютно непопулярную точку зрения – в рамках нынешней парадигмы экспоненциальное развитие ИИ УЖЕ ЗАКОНЧЕНО!

У меня есть ультимативные аргументы.

▪️Каждая ветвь эволюции современных LLMs дается со все большим трудом при незначительном росте производительности и эффективности. 

Это стало понятно с провальной GPT-4.5 Orion и это подтвердил релиз GPT-5 (сейчас лучшая и самая мощная модель, но от OpenAI ожидали прорыва, которого не произошло).

Существуют известные ограничения:

🔘Технологические и ресурсные ограничения связаны прежде всего с вычислительными ресурсами и оборудованием: увеличение количества параметров модели или объёма обучающих данных требует экспоненциально большего количества графических процессоров, оперативной памяти и электроэнергии.

🔘Ограничения набора данных проявляются в доступности качественных данных. Лидеры индустрии уже использовали почти все легкодоступные текстовые данные сети. Дальнейшее улучшение требует либо дорогостоящей лицензии на закрытые дата-сеты, либо генерации синтетических данных – но последнее пока не привело к прорыву.

Сохранение закона масштабирования больше не гарантировано, а актуализируется принцип убывающей отдачи. Достигнут предел или потолок эффективности. 

Грубо говоря, каждый условный процентный пункт прироста интегральной производительности стоит все больше денег и ресурсов.

Если всего три года назад производительность росла экспоненциально при незначительных расходах, сейчас полностью противоположный баланс – незначительные улучшения стоят сотен миллиардов долларов, которые невозможно монетизировать.

▪️Фундаментальные ограничения архитектуры современных LLMs.

Все современные флагманские модели (ChatGPT, Claude, Gemini, Grok и другие) построены на архитектуре трансформеров, которая прекрасно подходит для анализа текста и обучения на огромных массивах данных, но имеет встроенные слабые места.

● Фундаментальная невозможность расширения контекстного окна. 

Основная причина ограниченности контекстного окна кроется в сердце архитектуры трансформера — механизме самовнимания (self-attention). Для определения связей между элементами последовательности модель должна вычислить «оценку внимания» для каждой пары токенов. Это приводит к тому, что вычислительные и ресурсные затраты растут квадратично по отношению к длине последовательности.

Проще говоря, удвоение длины контекста в четыре раза увеличивает объем необходимых вычислений и памяти в 16 раз. Этот рост создает жесткий физический и финансовый барьер: в какой-то момент дальнейшее расширение окна становится непомерно дорогим и медленным.

При расширении контекстного окна в 100 раз (с 10 тыс до 1 млн токенов) требуется в 10000 (10 тыс) раз больше вычислительных ресурсов. Архитектура транформеров в свой основе чудовищно неэффективна. 

● Кроме того, такие модели работают в режиме пакетной обработки, не имея постоянной долгосрочной памяти: вся память ограничена контекстным окном одной сессии. Это затрудняет поддержание знаний или навыков за пределами короткого диалога без полного переразвития модели, что исключает накопление опыта и «прививания навыков», корректных инструкций LLM.

Есть различные алгоритмы оптимизации удержания широкого контекстного окна (не буду вдаваться в математику), но тут всплывает другая проблема.

● Помимо вычислительных ограничений, есть и проблемы стабильности и качества при расширении контекста – архитектурные ограничения, затрудняющие эффективное воспроизведение информации на всей ширине контекстного окна. 

Даже если игнорировать стоимость, простое увеличение размера окна не гарантирует повышения качества работы модели.

В архитектуре трансформеров, на котором базируются все без исключения современные LLMs вшит «деструктивный ген», фактически лимитирующий развитие.

В целом, длину контекстного окна ограничивает комбинация факторов: вычислительные ресурсы (квадратичная сложность), объём памяти устройств и необходимость переобучать модель работать с новыми, большими позициями.

Поэтому бесконечно увеличивать окно невыгодно и сложно, и индустрия параллельно исследует и другие подходы – например, хранение знаний во внешних базах и выборочный поиск информации вместо подачи всего контекста разом, но это все внешние костыли.

Интеграция ИИ в коммерческое и бизнес применение невозможна с ограниченным и крайне нестабильным контекстным окном, но НИ ОДНА компания НЕ предоставила эффективного решения.

Это базовые, но не все ограничения трансформеров.

▪️Пробел в памяти: самое серьезное ограничение заключается в том, что у Трансформеров нет постоянной, долговременной памяти. Они не способны обучаться на лету в ходе взаимодействия с пользователем. Каждый новый факт или навык требует дорогостоящего процесса дообучения или полного переобучения модели.

Это кардинально отличает их от биологического интеллекта, который обучается непрерывно и инкрементально.

Контекстное окно — это лишь временный буфер, а не механизм для накопления и интеграции знаний.

Сейчас LLMs – абсолютно изолированный от внешнего мира «черный ящик», архитектурно НЕ имеющий возможность самообучаться и в своей основе не может считаться интеллектом, т.к. первый признак интеллекта – способность к самообучению.

▪️Проблема «заземления»: модели обучаются на текстах, а не на взаимодействии с реальным миром. Их «понимание» — это статистический анализ закономерностей в данных, а не осмысленное соотнесение символов с реальными объектами, действиями и их последствиями.

LLMs не способны строить абстрактные представления о том, как устроен мир. Это гарантированно приводит к галлюцинациям –  генерации правдоподобной, но ложной или бессмысленной информации. 

Это ограничение лишь частично можно обойти в рамках, так называемого, «физического ИИ», который упомянул Хуанг, но раскрытие данного направления требует серии отдельных постов.

▪️Врожденная негибкость: архитектура Трансформера статична.

После завершения обучения веса нейронов фиксируются. Модель не может динамически создавать новые связи («синапсы») или изменять свою структуру в ответ на новый опыт, как это делает человеческий мозг. Эта нехватка пластичности означает, что LLM не являются по-настоящему адаптивными системами.

▪️Неразвитость когнитивных функций.

Нынешние архитектуры страдают от ограниченной способности к явному рассуждению и пониманию причинно-следственных связей. Они статистически предсказывают следующее слово на основе шаблонов в данных, но не обладают врождённым «здравым смыслом» или истинным пониманием мира. В результате даже лучшие LLM часто ошибаются в фактах и не умеют надёжно планировать многошаговые решения.

Качество данных является не архитектурным, а технологическим ограничением и как раз решается за счет алгоритмов обучения, но об этом в других материалах. 

В совокупности эти ограничения показывают, что архитектура трансформеров, несмотря на всю ее мощь, является тупиковой ветвью на пути к созданию универсального интеллекта.

Дальнейшее масштабирование может привести к появлению более изощренных и эрудированных «статистических попугаев», но не к рождению истинного разума.

Любая технология в своем развитии следует S-образной кривой: за периодом медленного старта следует взрывной рост, который затем сменяется плато, где дальнейшие улучшения становятся все более сложными и дорогостоящими.

Множество данных указывает на то, что большие языковые модели вступают в эту фазу плато.

Понимает ли Сэм Альтман все это? Вне всяких сомнений да, абсолютно, но публичное признание затруднит многомиллиардные раунды финансирования и запустит адовый хайп вокруг ИИ, обрушив капитализацию ИИ-компаний на порядок. 

Авторство: 
Копия чужих материалов

Комментарии

Аватар пользователя Иванушка Иванов

Интересно, а что они ожидали от Т9 переростка? Креатива что ли? Оно на креатив точно не способно.

Аватар пользователя shepgot
shepgot(4 года 1 месяц)

Друга. Брата по разуму... Кстати, знаю женщину, которая разговаривает во время уборки дома со своим  роботом-пылесосом. Ругает, если он не туда заехал, хвалит, если делает все как надо. Даже имя ему дала.

Аватар пользователя Иванушка Иванов

Ну, это не лечится. Много говорит о когнитивных способностях ожидающих...

Аватар пользователя shepgot
shepgot(4 года 1 месяц)

Да? Но с Алисой, в отличие от робота-пылесоса, беседуют уже не единицы, а многие. А с ЧатГПТ проводят философские диспуты, даже на АШ публикуют.)

Аватар пользователя klk
klk(10 лет 1 месяц)

Но с Алисой, в отличие от робота-пылесоса, беседуют уже не единицы, а многие. 

Эм, с котами беседуют гораздо больше smile3.gif

 А с ЧатГПТ проводят философские диспуты, даже на АШ публикуют.)

Чтобы чисто поржать smile3.gif 

Аватар пользователя shepgot
shepgot(4 года 1 месяц)

Эм, с котами беседуют гораздо больше smile3.gif

Воооот! Разница количественная, а не качественная. Вы уже сделали первый шаг на пути признания робота домашним питомцем.)

Чтобы чисто поржать smile3.gif 

Не обобщайте.) Некоторые ржут, а некоторые другие используют как источник собственного просветления.)

Аватар пользователя miat
miat(9 лет 9 месяцев)

Она не одинока...smile1.gif

Аватар пользователя shepgot
shepgot(4 года 1 месяц)

Еще бы!  У нее же есть робот! )

Аватар пользователя dimlk
dimlk(6 лет 3 дня)

Ждали всего и даром. Но не для всех, а только для себя.

Аватар пользователя АЧТ
АЧТ(9 лет 1 месяц)

Спайделл тормоз.

Я почти год назад написал про

Конец революции ИИ

Ох как в меня тут тапками кидались.

Сейчас до самых тупых уже дошло.

Резюмируя все вышесказанное.

1. Рост возможностей ИИ выходит на плато. Огромные вливания в мощность и сложность ИИ не приносят тех результатов, что были в 23г. Наоборот, накапливаются знания об ограниченности БЯМ и генеративных моделей, которые препятствуют их широкому внедрению.

Аватар пользователя shepgot
shepgot(4 года 1 месяц)

Ок, Спайдел тормоз, вы молодец. Теперь вы должны быть довольны, Спайдел долго теребил затылок, но был вынужден с вами согласиться.)

Аватар пользователя Архангел
Архангел(2 года 6 месяцев)

Месяц назад вышли адекватные нейронки (Flux Kontext), которые редактируют изображения (сегодня там и от Qwen пополнение).  Пару месяцев назад была выпущена нашумевшая Veo3. Агенты, взаимодействующие с вашими файлами и бронирующие вам столик в любимом ресторане через браузер тоже вещь весьма свежая. А у вас уже год назад конец наступил.
Зачем вам этот конец? Что это за конец такой? Зачем его ожидать?
К примеру, ещё в 2010 году перестала расти частота процессоров. Перестал работать закон Мура. Можно было бы говорить о каком-то конце. Ну и что? Прогресс закончился? Сложность решаемых задач застопорилась? Информационные системы перестали изменяться?

Аватар пользователя sugrobische
sugrobische(12 лет 10 месяцев)

Наоборот надо поблагодарить спайделов и других популяризаторов конца концов. Распространение таких идей повашает конкурентоспособность талантливых людей

Аватар пользователя АЧТ
АЧТ(9 лет 1 месяц)

Зачем вам этот конец? Что это за конец такой? Зачем его ожидать?

Моя статья называется "Конец революции ИИ"

В ней я предположил, что взрывной рост ИИ при небольших вложениях завершился. Технологическая сингулярность, о которой бредили интеллектуалы, не совершилось. Технология стала зрелой и для небольшого продвижения вперед, требуются все большие вложения. Я и не говорил, что продвижение вперед завершено. Просто оно затормозилось.

Если посмотрите мои выводы, то поймете, что только что их подтвердили:

Месяц назад вышли адекватные нейронки (Flux Kontext), которые редактируют изображения (сегодня там и от Qwen пополнение).  Пару месяцев назад была выпущена нашумевшая Veo3. Агенты, взаимодействующие с вашими файлами и бронирующие вам столик в любимом ресторане через браузер тоже вещь весьма свежая.

Из статьи:

2. Внедрение ИИ происходит в узкие отрасли, это высокоспециализированный инструмент. И экономический эффект вовсе не такой огромный, как ожидалось. По сути ожидания были те же, что и при появлении компьютеров, что компьютеры будут много умнее человеков, поскольку считают гораздо быстрее. Не оправдалось. Так же будет и сейчас.

Аватар пользователя TenOClock
TenOClock(10 лет 11 месяцев)

Они ожидали бабла и бабло течёт.

Аватар пользователя Алекс_андр
Алекс_андр(8 лет 7 месяцев)

Только на "креатив" оно и способно. В худшем смысле этого слова.

Аватар пользователя Alex Arx
Alex Arx(9 лет 11 месяцев)

Переход ИИ с классических на квантовые вычисления кроет все эти аргументы как бык овцу.)

Аватар пользователя shepgot
shepgot(4 года 1 месяц)

Ура!.. Но постойте... Где они, эти кластеры квантовых вычислений, где расположены? Ах, их еще нет? Расходимся...

И как вы предлагаете в рамках текущей архитектуры LLM, пусть на "квантовом" оборудовании, решить проблему "контекстного окна"? Окна, которое временный буфер, а не источник самообучения.

Аватар пользователя Alex Arx
Alex Arx(9 лет 11 месяцев)

А вы сами подумайте. В конце-концов, вы инженер или кто?

Мы же, со своей стороны, сделали всё, что могли. То есть, теоретически обосновали и даже экспериментально подтвердили.)

Аватар пользователя shepgot
shepgot(4 года 1 месяц)

Ловко! И не подкопаться, что характерно. Правда, с экспериментальным подтверждением не все понятно. И даже с фактом проведения эксперимента.

Аватар пользователя Alex Arx
Alex Arx(9 лет 11 месяцев)

А это и не должно быть понятно. В смысле, не должно быть всем понятно. Ибо сложно для понимания.

И не дай бог, если наука будет идти путём голосования за ту или иную интерпретацию. Нет уж, дудки! Правильную интерпретацию будем выбирать мы, избранные. Вам же, инженерам, останется лишь воплотить это в железе. 

Как видите, ничего сложного. И ничего обидного. Разве мы вас когда-нибудь подводили? Вон, посмотрите кругом, вся наша техника действует на основе наших математических моделей. И то ли ещё будет!)

Аватар пользователя shepgot
shepgot(4 года 1 месяц)

Так... кажется, я понял. Эксперимент, который то ли проводился, то ли нет и его результат, который может был, а может его не было... и даже результат, который получился в эксперименте, который не проводился... все это само по себе есть квантовая реальность. Например пары противоположных результатов, возникающие спонтанно и одновременно без всякого эксперимента, но направленные на подтверждение его проведения. Главное, чтобы не было наблюдателя, который мог бы повлиять на результат этих квантово запутанных событий... Действительно, ничего сложного.

Аватар пользователя a.pythe
a.pythe(3 года 9 месяцев)

Действительно, ничего сложного.

Типа, да smile1.gif Если на пустом месте всунуть какую-нибудь математику, то может получиться оч мощно и невыносимо загадочно. Но не факт что это будет адекватно какой либо реальности smile48.gif

Аватар пользователя Ради бана
Ради бана(1 год 6 месяцев)

никакие квантовые вычисления принципиально невозможны, потому квантового преимущества физически не существует, а эмуляция его приведет к тому, что вычисления будут более дорогими, медленными, и менее точными по сравнению с обычными вычислениями. Я сталкивался с тем, что это даже до профильных ютьюберов-инфоцыган стало доходить

Аватар пользователя oxegenium
oxegenium(13 лет 3 месяца)

И некто крикнул из ветвей - "Жираф большой, ему видней".

Физика квантовой информации это, конечно, ну ооочень большой жираф. Но, честно говоря, виднеются только смутные очертания его, и то - вдалеке)). Сначала надо будет разобраться с основами физики. Точнее, создать новую теорию фундаментальную, объединяющую весь тот зоопарк, что породили "смотрящие" за мировой наукой. Кстати, с ними в первую очередь надо бы разобраться)), а то чуть появится кто-то гениальный, то сразу они, либо купят, либо затравят , как Кэри Муллиса, либо молодой человек "неожиданно" умирает от остановки сердца. Суки!

квантовые вычисления кроет все эти аргументы как бык овцу.)

Так что до этих вычислений (в контексте ИИ) ещё как до ишачьей пасхи)).

Аватар пользователя Барсук
Барсук(4 года 8 месяцев)

Переход ИИ с классических на квантовые вычисления кроет все эти аргументы как бык овцу.)

Нет никакого ИИ, есть программируемый автомат. Сложный, но все-равно автомат.

Типа как посади кошку в ящик чтобы хвост был снаружи, дернул хвост - кошка мяукнула.

Когда "ИИ" начнет задавать вопросы - тогда о чем-то можно будет говорить.

Ребенок спрашивает - "Почему солнце светит? Почему идет дождь". А ваш "ИИ" ждет пока его "дернут за хвост".

Аватар пользователя Alex Arx
Alex Arx(9 лет 11 месяцев)

Имеете в виду, как сделать так, чтобы ответы ИИ не были предсказуемы на 100 %?

Это решается даже классическими методами, без привлечения квантовых вычислений.)

Аватар пользователя Барсук
Барсук(4 года 8 месяцев)

Имеете в виду, как сделать так, чтобы ответы ИИ не были предсказуемы на 100 %?

Когда "ИИ" начнет задавать вопросы - тогда о чем-то можно будет говорить.

"ИИ" не задает вопросы для своего самообучения, он ждет пока его "дернут за хвост" и потом выставят весовые коэффициенты.

Аватар пользователя a.pythe
a.pythe(3 года 9 месяцев)

Это же просто: чтобы задавать вопросы надо чего-то ХОТЕТЬ. Детки, засыпающие предков своими парадоксальными вопросами, фонтанируют хотениями. А железка чего-нить хочет? Она вообще может хотеть? Хотение можно смоделировать?

Увы, смоделировать можно только чтобы было ПОХОЖЕ, в том или ином плане... Хотение не формализуется. А реализовать можно только то, что формализуется, иначе получается МАГИЯ, которая неизвестно как работает. Да и неизвестно, работает ли. Скорее что нет.

Отсюда: если что и получится, это будет результат ЗАКЛИНАНИЯ, а не научного и тем более инженерного решения smile21.gif

Аватар пользователя Барсук
Барсук(4 года 8 месяцев)

Увы, смоделировать можно только чтобы было ПОХОЖЕ, в том или ином плане... Хотение не формализуется. А реализовать можно только то, что формализуется, иначе получается МАГИЯ, которая неизвестно как работает. Да и неизвестно, работает ли. Скорее что нет.

Человеки хотят чтобы "ИИ" решил все их проблемы.

Вариант такого будущего мы видим в "Отроках во Вселенной" - "Роботы-вершители" своеобразно, но весьма эффективно, стали делать людей "счастливыми". 

Аватар пользователя SAMOKILLER
SAMOKILLER(11 лет 4 месяца)

Какая же лютая АХИНЕЯ напичканная терминологией для правдоподобности.

Аватар пользователя shepgot
shepgot(4 года 1 месяц)

Переведите этот ваш тарзаний вскрик на человеческий язык, если хотите, чтобы вас поняли не только тарзаны.

Аватар пользователя Ради бана
Ради бана(1 год 6 месяцев)

не обращайте внимания

Аватар пользователя SAMOKILLER
SAMOKILLER(11 лет 4 месяца)

Да? А ты хотя бы с градиентным спуском знаком, чтобы обсуждать такие вещи? Или понимаешь смысл qkv-матриц в трансформере? Может ты нейроночки с нуля руками пишешь и обучаешь? Если нет - так на каком языке с тобой говорить, если не на языке "Тарзана"?

Аватар пользователя shepgot
shepgot(4 года 1 месяц)

Пока что вы не сказали ровным счетом ничего.

Попробуйте для начала сформулировать свои возражения на человеческом языке. Снизойдите с ваших высот до простого народа. Без личных выпадов и стучания головой об стену. Список пунктов есть в статье. Пройдитесь по нему и скажите, что в них не так с вашей, несомненно высокопрофессиональной, точки зрения. Но простым языком, чтобы любой дурак, осиливший статью, понял бы и вас.

Аватар пользователя Sdubanah
Sdubanah(10 лет 2 месяца)

Не надо "любой дурак". Тема сложная. Достаточно представить возражения со ссылками на источники, из ктторых можно причерпнуть подробнее.

Аватар пользователя SAMOKILLER
SAMOKILLER(11 лет 4 месяца)

Ты мне про "тарзанские вскрики" будешь сходу вещать, а я тебе бесплатно терпеливо что-то объяснять? Иди тусуйся

Аватар пользователя shepgot
shepgot(4 года 1 месяц)

Ну что ж, ваше право. Так и подытожим - вскрик был именно тарзаний, без всяких конструктивный идей в основе, просто пустые эмоции.

Аватар пользователя m.kozh
m.kozh(5 лет 9 месяцев)

Думаете, если смогли запомнить несколько слов, то выглядите умным? Попугаи тоже так могут.

Аватар пользователя balmer
balmer(8 лет 1 месяц)

Можно и на языке терминов. Я понемногу обучаю нейросети (и в том числе пишу свои) так что терминологию пойму ( как впрочем и многие здесь). 

Аватар пользователя SAMOKILLER
SAMOKILLER(11 лет 4 месяца)

Я не вижу смысла разбирать этот шлак, а не статью, без источников и метрик, но если вам хочется копаться - копайте в сторону:

1. История про неэффективность трансформера  - уже множество решений было придумано и процесс продолжается каждую неделю. Копать в сторону архитектур Mamba и огромного числа модификаций аля FlashAttention, sparse attention да и просто attention загуглите на arxiv.

Это уж не говоря про крутую алгоритмическую реализацию deepseek.

2. История про отсутствие долговременной памяти у трансформеров. Автор страхуется говоря что мол есть варианты, но не без проблем. Ключевое тут: ЕСТЬ ВАРИАНТЫ. Проблемы у всего есть - индустрия быстро развивается. Есть множество решений обеспечивающих долговременную память.

3. История про "нет данных для обучения". Автор, видимо, не в курсе про мультимодальность и данные собираемые онлайн через сенсоры.

Это не статья, а высер. Тут нечего обсуждать. Самое страшное тут - не технические глюки автора, а методологические.

Самая главная причина почему это полный шлак и ахинея - потому что человек вещает псевдонаучно. Он пытается в терминологию, но работает на широкую публику, поэтому избегает научного стиля, и это "как бы" оправдывает всю методологическую катастрофу статьи. Статью бесполезно обсуждать потому что она и не научная и не популярная. Целевая аудитория статьи явно люди которые ничего не смыслят и DL от RL не отличат. Статья манипулятивная, давит на эмоции, и тратить на неё своё время - это или ничего не смыслить в предмете обсуждения, или своё время не ценить.

Это как я бы почитал пару недель как работает атомный реактор и написал статью с критикой современных решений.

Аватар пользователя Sdubanah
Sdubanah(10 лет 2 месяца)

Большое спасибо за развернутый ответ.

Аватар пользователя balmer
balmer(8 лет 1 месяц)

Да, спасибо. Теперь хорошо понятна ваша точка зрения.

Аватар пользователя Doc_Mike
Doc_Mike(7 лет 11 месяцев)

Каким образом градиентный спуск позволяет разрешить хотя бы один из тухляков БЯМов, перечисленных в статье?

Аватар пользователя SAMOKILLER
SAMOKILLER(11 лет 4 месяца)

Предлагаете мне обосновать выдуманные вами тезисы?

Мой тезис в том что не имеет смысла обсуждать технические подробности LLM с человеком не понимающим такую базу как градиентный спуск. И это необходимое, но недостаточное условие, потому что 90% джунов, которые несколько месяцев обучались у специальных людей устройство трансформера даже близко не понимают. А тут не просто про трансформер, а про целую отрасль в DL и RL.

Аватар пользователя Doc_Mike
Doc_Mike(7 лет 11 месяцев)

Ну, на нет и суда нет.

Аватар пользователя dimlk
dimlk(6 лет 3 дня)

Будем перекрывать одну ахинею с техническими терминами для правдоподобности другой ахинеей с техническими терминами для правдоподобности. Пока что первая ахинея выглядит убедительнее, в ней слов больше.

Аватар пользователя Canis_m
Canis_m(9 лет 8 месяцев)

Хотелось бы поговорить с точки зрения стохастических нелинейных систем. Нервная сеть врёт, нервная сеть выдумывает, нервная сеть не может сказать не знаю. Нервная сеть не понимает смысла слов. Нервная сеть угнетает когнитивные способности оператора, зачем нужна искусственная нервная сеть?

Аватар пользователя Sdubanah
Sdubanah(10 лет 2 месяца)

Поясните, пожалуйста, свою позицию. Это будет интересно многим. Спасибо.

Аватар пользователя beck
beck(10 лет 5 месяцев)

Ну почему. Всё совершенно кристально, и полностью стыкуется с мнением нейробиологов и нейроморфологов. Так вот.

Мозг гоминид состоит из 90 млрд. нейронов и сотен (если не тысяч) триллионов синаптических связей. Нынешние языковые модели по сложности не дотягивают до например таракана с его 200 000 нейронов. Соответственно и возможности обучения. Чтобы увеличить количество нейронов и связей, нужно экспоненциально увеличить вычислительных ресурсов. 

Более того, ещё 100500 лет тому назад Азимов писал, что только с созданием позитронного мозга появилась возможность делать роботов, которые способны мыслить и т.д. Азимов как раз понимал суть. 

Страницы