Главу Nvidia Дженсена Хуанга можно понять – он промоутирует вычислительные кластеры, с которых зарабатывает сотни миллиардов, разогрев капитализацию своей компании выше 4 трлн. В его картине мира вычислительные кластеры нужны всем и каждому в неограниченных количествах и всегда.
В представлении многих промоутеров ИИ (ключевые фигуры текущих ИИ вендоров) экспансия ИИ только начинается, я же выскажу абсолютно непопулярную точку зрения – в рамках нынешней парадигмы экспоненциальное развитие ИИ УЖЕ ЗАКОНЧЕНО!
У меня есть ультимативные аргументы.
▪️Каждая ветвь эволюции современных LLMs дается со все большим трудом при незначительном росте производительности и эффективности.
Это стало понятно с провальной GPT-4.5 Orion и это подтвердил релиз GPT-5 (сейчас лучшая и самая мощная модель, но от OpenAI ожидали прорыва, которого не произошло).
Существуют известные ограничения:
🔘Технологические и ресурсные ограничения связаны прежде всего с вычислительными ресурсами и оборудованием: увеличение количества параметров модели или объёма обучающих данных требует экспоненциально большего количества графических процессоров, оперативной памяти и электроэнергии.
🔘Ограничения набора данных проявляются в доступности качественных данных. Лидеры индустрии уже использовали почти все легкодоступные текстовые данные сети. Дальнейшее улучшение требует либо дорогостоящей лицензии на закрытые дата-сеты, либо генерации синтетических данных – но последнее пока не привело к прорыву.
Сохранение закона масштабирования больше не гарантировано, а актуализируется принцип убывающей отдачи. Достигнут предел или потолок эффективности.
Грубо говоря, каждый условный процентный пункт прироста интегральной производительности стоит все больше денег и ресурсов.
Если всего три года назад производительность росла экспоненциально при незначительных расходах, сейчас полностью противоположный баланс – незначительные улучшения стоят сотен миллиардов долларов, которые невозможно монетизировать.
▪️Фундаментальные ограничения архитектуры современных LLMs.
Все современные флагманские модели (ChatGPT, Claude, Gemini, Grok и другие) построены на архитектуре трансформеров, которая прекрасно подходит для анализа текста и обучения на огромных массивах данных, но имеет встроенные слабые места.
● Фундаментальная невозможность расширения контекстного окна.
Основная причина ограниченности контекстного окна кроется в сердце архитектуры трансформера — механизме самовнимания (self-attention). Для определения связей между элементами последовательности модель должна вычислить «оценку внимания» для каждой пары токенов. Это приводит к тому, что вычислительные и ресурсные затраты растут квадратично по отношению к длине последовательности.
Проще говоря, удвоение длины контекста в четыре раза увеличивает объем необходимых вычислений и памяти в 16 раз. Этот рост создает жесткий физический и финансовый барьер: в какой-то момент дальнейшее расширение окна становится непомерно дорогим и медленным.
При расширении контекстного окна в 100 раз (с 10 тыс до 1 млн токенов) требуется в 10000 (10 тыс) раз больше вычислительных ресурсов. Архитектура транформеров в свой основе чудовищно неэффективна.
● Кроме того, такие модели работают в режиме пакетной обработки, не имея постоянной долгосрочной памяти: вся память ограничена контекстным окном одной сессии. Это затрудняет поддержание знаний или навыков за пределами короткого диалога без полного переразвития модели, что исключает накопление опыта и «прививания навыков», корректных инструкций LLM.
Есть различные алгоритмы оптимизации удержания широкого контекстного окна (не буду вдаваться в математику), но тут всплывает другая проблема.
● Помимо вычислительных ограничений, есть и проблемы стабильности и качества при расширении контекста – архитектурные ограничения, затрудняющие эффективное воспроизведение информации на всей ширине контекстного окна.
Даже если игнорировать стоимость, простое увеличение размера окна не гарантирует повышения качества работы модели.
В архитектуре трансформеров, на котором базируются все без исключения современные LLMs вшит «деструктивный ген», фактически лимитирующий развитие.
В целом, длину контекстного окна ограничивает комбинация факторов: вычислительные ресурсы (квадратичная сложность), объём памяти устройств и необходимость переобучать модель работать с новыми, большими позициями.
Поэтому бесконечно увеличивать окно невыгодно и сложно, и индустрия параллельно исследует и другие подходы – например, хранение знаний во внешних базах и выборочный поиск информации вместо подачи всего контекста разом, но это все внешние костыли.
Интеграция ИИ в коммерческое и бизнес применение невозможна с ограниченным и крайне нестабильным контекстным окном, но НИ ОДНА компания НЕ предоставила эффективного решения.
Это базовые, но не все ограничения трансформеров.
▪️Пробел в памяти: самое серьезное ограничение заключается в том, что у Трансформеров нет постоянной, долговременной памяти. Они не способны обучаться на лету в ходе взаимодействия с пользователем. Каждый новый факт или навык требует дорогостоящего процесса дообучения или полного переобучения модели.
Это кардинально отличает их от биологического интеллекта, который обучается непрерывно и инкрементально.
Контекстное окно — это лишь временный буфер, а не механизм для накопления и интеграции знаний.
Сейчас LLMs – абсолютно изолированный от внешнего мира «черный ящик», архитектурно НЕ имеющий возможность самообучаться и в своей основе не может считаться интеллектом, т.к. первый признак интеллекта – способность к самообучению.
▪️Проблема «заземления»: модели обучаются на текстах, а не на взаимодействии с реальным миром. Их «понимание» — это статистический анализ закономерностей в данных, а не осмысленное соотнесение символов с реальными объектами, действиями и их последствиями.
LLMs не способны строить абстрактные представления о том, как устроен мир. Это гарантированно приводит к галлюцинациям – генерации правдоподобной, но ложной или бессмысленной информации.
Это ограничение лишь частично можно обойти в рамках, так называемого, «физического ИИ», который упомянул Хуанг, но раскрытие данного направления требует серии отдельных постов.
▪️Врожденная негибкость: архитектура Трансформера статична.
После завершения обучения веса нейронов фиксируются. Модель не может динамически создавать новые связи («синапсы») или изменять свою структуру в ответ на новый опыт, как это делает человеческий мозг. Эта нехватка пластичности означает, что LLM не являются по-настоящему адаптивными системами.
▪️Неразвитость когнитивных функций.
Нынешние архитектуры страдают от ограниченной способности к явному рассуждению и пониманию причинно-следственных связей. Они статистически предсказывают следующее слово на основе шаблонов в данных, но не обладают врождённым «здравым смыслом» или истинным пониманием мира. В результате даже лучшие LLM часто ошибаются в фактах и не умеют надёжно планировать многошаговые решения.
Качество данных является не архитектурным, а технологическим ограничением и как раз решается за счет алгоритмов обучения, но об этом в других материалах.
В совокупности эти ограничения показывают, что архитектура трансформеров, несмотря на всю ее мощь, является тупиковой ветвью на пути к созданию универсального интеллекта.
Дальнейшее масштабирование может привести к появлению более изощренных и эрудированных «статистических попугаев», но не к рождению истинного разума.
Любая технология в своем развитии следует S-образной кривой: за периодом медленного старта следует взрывной рост, который затем сменяется плато, где дальнейшие улучшения становятся все более сложными и дорогостоящими.
Множество данных указывает на то, что большие языковые модели вступают в эту фазу плато.
Понимает ли Сэм Альтман все это? Вне всяких сомнений да, абсолютно, но публичное признание затруднит многомиллиардные раунды финансирования и запустит адовый хайп вокруг ИИ, обрушив капитализацию ИИ-компаний на порядок.

Комментарии
Интересно, а что они ожидали от Т9 переростка? Креатива что ли? Оно на креатив точно не способно.
Друга. Брата по разуму... Кстати, знаю женщину, которая разговаривает во время уборки дома со своим роботом-пылесосом. Ругает, если он не туда заехал, хвалит, если делает все как надо. Даже имя ему дала.
Ну, это не лечится. Много говорит о когнитивных способностях ожидающих...
Да? Но с Алисой, в отличие от робота-пылесоса, беседуют уже не единицы, а многие. А с ЧатГПТ проводят философские диспуты, даже на АШ публикуют.)
Эм, с котами беседуют гораздо больше
Чтобы чисто поржать
Воооот! Разница количественная, а не качественная. Вы уже сделали первый шаг на пути признания робота домашним питомцем.)
Не обобщайте.) Некоторые ржут, а некоторые другие используют как источник собственного просветления.)
Она не одинока...
Еще бы! У нее же есть робот! )
Ждали всего и даром. Но не для всех, а только для себя.
Спайделл тормоз.
Я почти год назад написал про
Конец революции ИИ
Ох как в меня тут тапками кидались.
Сейчас до самых тупых уже дошло.
Ок, Спайдел тормоз, вы молодец. Теперь вы должны быть довольны, Спайдел долго теребил затылок, но был вынужден с вами согласиться.)
Месяц назад вышли адекватные нейронки (Flux Kontext), которые редактируют изображения (сегодня там и от Qwen пополнение). Пару месяцев назад была выпущена нашумевшая Veo3. Агенты, взаимодействующие с вашими файлами и бронирующие вам столик в любимом ресторане через браузер тоже вещь весьма свежая. А у вас уже год назад конец наступил.
Зачем вам этот конец? Что это за конец такой? Зачем его ожидать?
К примеру, ещё в 2010 году перестала расти частота процессоров. Перестал работать закон Мура. Можно было бы говорить о каком-то конце. Ну и что? Прогресс закончился? Сложность решаемых задач застопорилась? Информационные системы перестали изменяться?
Наоборот надо поблагодарить спайделов и других популяризаторов конца концов. Распространение таких идей повашает конкурентоспособность талантливых людей
Моя статья называется "Конец революции ИИ"
В ней я предположил, что взрывной рост ИИ при небольших вложениях завершился. Технологическая сингулярность, о которой бредили интеллектуалы, не совершилось. Технология стала зрелой и для небольшого продвижения вперед, требуются все большие вложения. Я и не говорил, что продвижение вперед завершено. Просто оно затормозилось.
Если посмотрите мои выводы, то поймете, что только что их подтвердили:
Из статьи:
Они ожидали бабла и бабло течёт.
Только на "креатив" оно и способно. В худшем смысле этого слова.
Переход ИИ с классических на квантовые вычисления кроет все эти аргументы как бык овцу.)
Ура!.. Но постойте... Где они, эти кластеры квантовых вычислений, где расположены? Ах, их еще нет? Расходимся...
И как вы предлагаете в рамках текущей архитектуры LLM, пусть на "квантовом" оборудовании, решить проблему "контекстного окна"? Окна, которое временный буфер, а не источник самообучения.
А вы сами подумайте. В конце-концов, вы инженер или кто?
Мы же, со своей стороны, сделали всё, что могли. То есть, теоретически обосновали и даже экспериментально подтвердили.)
Ловко! И не подкопаться, что характерно. Правда, с экспериментальным подтверждением не все понятно. И даже с фактом проведения эксперимента.
А это и не должно быть понятно. В смысле, не должно быть всем понятно. Ибо сложно для понимания.
И не дай бог, если наука будет идти путём голосования за ту или иную интерпретацию. Нет уж, дудки! Правильную интерпретацию будем выбирать мы, избранные. Вам же, инженерам, останется лишь воплотить это в железе.
Как видите, ничего сложного. И ничего обидного. Разве мы вас когда-нибудь подводили? Вон, посмотрите кругом, вся наша техника действует на основе наших математических моделей. И то ли ещё будет!)
Так... кажется, я понял. Эксперимент, который то ли проводился, то ли нет и его результат, который может был, а может его не было... и даже результат, который получился в эксперименте, который не проводился... все это само по себе есть квантовая реальность. Например пары противоположных результатов, возникающие спонтанно и одновременно без всякого эксперимента, но направленные на подтверждение его проведения. Главное, чтобы не было наблюдателя, который мог бы повлиять на результат этих квантово запутанных событий... Действительно, ничего сложного.
Типа, да
Если на пустом месте всунуть какую-нибудь математику, то может получиться оч мощно и невыносимо загадочно. Но не факт что это будет адекватно какой либо реальности 
никакие квантовые вычисления принципиально невозможны, потому квантового преимущества физически не существует, а эмуляция его приведет к тому, что вычисления будут более дорогими, медленными, и менее точными по сравнению с обычными вычислениями. Я сталкивался с тем, что это даже до профильных ютьюберов-инфоцыган стало доходить
И некто крикнул из ветвей - "Жираф большой, ему видней".
Физика квантовой информации это, конечно, ну ооочень большой жираф. Но, честно говоря, виднеются только смутные очертания его, и то - вдалеке)). Сначала надо будет разобраться с основами физики. Точнее, создать новую теорию фундаментальную, объединяющую весь тот зоопарк, что породили "смотрящие" за мировой наукой. Кстати, с ними в первую очередь надо бы разобраться)), а то чуть появится кто-то гениальный, то сразу они, либо купят, либо затравят , как Кэри Муллиса, либо молодой человек "неожиданно" умирает от остановки сердца. Суки!
Так что до этих вычислений (в контексте ИИ) ещё как до ишачьей пасхи)).
Нет никакого ИИ, есть программируемый автомат. Сложный, но все-равно автомат.
Типа как посади кошку в ящик чтобы хвост был снаружи, дернул хвост - кошка мяукнула.
Когда "ИИ" начнет задавать вопросы - тогда о чем-то можно будет говорить.
Ребенок спрашивает - "Почему солнце светит? Почему идет дождь". А ваш "ИИ" ждет пока его "дернут за хвост".
Имеете в виду, как сделать так, чтобы ответы ИИ не были предсказуемы на 100 %?
Это решается даже классическими методами, без привлечения квантовых вычислений.)
"ИИ" не задает вопросы для своего самообучения, он ждет пока его "дернут за хвост" и потом выставят весовые коэффициенты.
Это же просто: чтобы задавать вопросы надо чего-то ХОТЕТЬ. Детки, засыпающие предков своими парадоксальными вопросами, фонтанируют хотениями. А железка чего-нить хочет? Она вообще может хотеть? Хотение можно смоделировать?
Увы, смоделировать можно только чтобы было ПОХОЖЕ, в том или ином плане... Хотение не формализуется. А реализовать можно только то, что формализуется, иначе получается МАГИЯ, которая неизвестно как работает. Да и неизвестно, работает ли. Скорее что нет.
Отсюда: если что и получится, это будет результат ЗАКЛИНАНИЯ, а не научного и тем более инженерного решения
Человеки хотят чтобы "ИИ" решил все их проблемы.
Вариант такого будущего мы видим в "Отроках во Вселенной" - "Роботы-вершители" своеобразно, но весьма эффективно, стали делать людей "счастливыми".
Какая же лютая АХИНЕЯ напичканная терминологией для правдоподобности.
Переведите этот ваш тарзаний вскрик на человеческий язык, если хотите, чтобы вас поняли не только тарзаны.
не обращайте внимания
Да? А ты хотя бы с градиентным спуском знаком, чтобы обсуждать такие вещи? Или понимаешь смысл qkv-матриц в трансформере? Может ты нейроночки с нуля руками пишешь и обучаешь? Если нет - так на каком языке с тобой говорить, если не на языке "Тарзана"?
Пока что вы не сказали ровным счетом ничего.
Попробуйте для начала сформулировать свои возражения на человеческом языке. Снизойдите с ваших высот до простого народа. Без личных выпадов и стучания головой об стену. Список пунктов есть в статье. Пройдитесь по нему и скажите, что в них не так с вашей, несомненно высокопрофессиональной, точки зрения. Но простым языком, чтобы любой дурак, осиливший статью, понял бы и вас.
Не надо "любой дурак". Тема сложная. Достаточно представить возражения со ссылками на источники, из ктторых можно причерпнуть подробнее.
Ты мне про "тарзанские вскрики" будешь сходу вещать, а я тебе бесплатно терпеливо что-то объяснять? Иди тусуйся
Ну что ж, ваше право. Так и подытожим - вскрик был именно тарзаний, без всяких конструктивный идей в основе, просто пустые эмоции.
Думаете, если смогли запомнить несколько слов, то выглядите умным? Попугаи тоже так могут.
Можно и на языке терминов. Я понемногу обучаю нейросети (и в том числе пишу свои) так что терминологию пойму ( как впрочем и многие здесь).
Я не вижу смысла разбирать этот шлак, а не статью, без источников и метрик, но если вам хочется копаться - копайте в сторону:
1. История про неэффективность трансформера - уже множество решений было придумано и процесс продолжается каждую неделю. Копать в сторону архитектур Mamba и огромного числа модификаций аля FlashAttention, sparse attention да и просто attention загуглите на arxiv.
Это уж не говоря про крутую алгоритмическую реализацию deepseek.
2. История про отсутствие долговременной памяти у трансформеров. Автор страхуется говоря что мол есть варианты, но не без проблем. Ключевое тут: ЕСТЬ ВАРИАНТЫ. Проблемы у всего есть - индустрия быстро развивается. Есть множество решений обеспечивающих долговременную память.
3. История про "нет данных для обучения". Автор, видимо, не в курсе про мультимодальность и данные собираемые онлайн через сенсоры.
Это не статья, а высер. Тут нечего обсуждать. Самое страшное тут - не технические глюки автора, а методологические.
Самая главная причина почему это полный шлак и ахинея - потому что человек вещает псевдонаучно. Он пытается в терминологию, но работает на широкую публику, поэтому избегает научного стиля, и это "как бы" оправдывает всю методологическую катастрофу статьи. Статью бесполезно обсуждать потому что она и не научная и не популярная. Целевая аудитория статьи явно люди которые ничего не смыслят и DL от RL не отличат. Статья манипулятивная, давит на эмоции, и тратить на неё своё время - это или ничего не смыслить в предмете обсуждения, или своё время не ценить.
Это как я бы почитал пару недель как работает атомный реактор и написал статью с критикой современных решений.
Большое спасибо за развернутый ответ.
Да, спасибо. Теперь хорошо понятна ваша точка зрения.
Каким образом градиентный спуск позволяет разрешить хотя бы один из тухляков БЯМов, перечисленных в статье?
Предлагаете мне обосновать выдуманные вами тезисы?
Мой тезис в том что не имеет смысла обсуждать технические подробности LLM с человеком не понимающим такую базу как градиентный спуск. И это необходимое, но недостаточное условие, потому что 90% джунов, которые несколько месяцев обучались у специальных людей устройство трансформера даже близко не понимают. А тут не просто про трансформер, а про целую отрасль в DL и RL.
Ну, на нет и суда нет.
Будем перекрывать одну ахинею с техническими терминами для правдоподобности другой ахинеей с техническими терминами для правдоподобности. Пока что первая ахинея выглядит убедительнее, в ней слов больше.
Хотелось бы поговорить с точки зрения стохастических нелинейных систем. Нервная сеть врёт, нервная сеть выдумывает, нервная сеть не может сказать не знаю. Нервная сеть не понимает смысла слов. Нервная сеть угнетает когнитивные способности оператора, зачем нужна искусственная нервная сеть?
Поясните, пожалуйста, свою позицию. Это будет интересно многим. Спасибо.
Ну почему. Всё совершенно кристально, и полностью стыкуется с мнением нейробиологов и нейроморфологов. Так вот.
Мозг гоминид состоит из 90 млрд. нейронов и сотен (если не тысяч) триллионов синаптических связей. Нынешние языковые модели по сложности не дотягивают до например таракана с его 200 000 нейронов. Соответственно и возможности обучения. Чтобы увеличить количество нейронов и связей, нужно экспоненциально увеличить вычислительных ресурсов.
Более того, ещё 100500 лет тому назад Азимов писал, что только с созданием позитронного мозга появилась возможность делать роботов, которые способны мыслить и т.д. Азимов как раз понимал суть.
Страницы