Илья Суцкевер: Термодинамическая невозможность создания ИИ человеческого уровня и обман инвесторов

Аватар пользователя Granderator

Общий искусственный интеллект (Artificial general intelligence, AGI, ИИИ)

— это раздел теоретических исследований искусственного интеллекта, направленный на разработку

ИИ с когнитивными функциями человеческого уровня, включая способность к самообучению.

Исследователи предполагают, что такой искусственный интеллект сможет автономно

решать множество сложных задач в различных областях знаний.

В других терминах AGI определяется как сильный ИИ.

Таким образом, он противопоставляется слабому или узкому ИИ,

который может выполнять только определенные или специализированные задачи

в рамках предопределенного набора параметров.

Нижегородец и физик Илья Суцкевер покинул разработчика ChatGPT - OpenAI и создал свой проект после того, как представил совету директоров внутренний документ, где опроверг возможность создания общего искусственного  интеллекта (AGI или ИИИ).

С помощью законов физики он доказал, что для этого требуется больше энергии, чем существует в Солнечной системе. 

AGI это система, которая сможет эффективно решать интеллектуальные задачи на общечеловеческом уровне. Также AGI должен был обладать высокой степенью автономности и самопонимания, а не просто работать по указке человека.

Это ИИ, способный работать,  думать и учиться, как человек.

Большинство примеров ИИ, о которых вы слышите сегодня, от шахматных компьютеров до автономных транспортных средств, зависят от обработки естественного языка (natural language processing, NLP) и глубокого обучения (deep learning).

Такие системы ИИ безупречно выполняют предписанные задания, но не способны выполнять нераспределенные обязанности с одинаковой точностью.

96f4f862-5715-42af-a125-f704bfeebdadaec847456b4a48ae.jpg

Рис 1

Меморандум OpenAI под названием «Термодинамические ограничения на искусственный общий интеллект» декларирует физическую невозможность достижения ИОИ из-за фундаментальных ограничений энергопотребления, основанных на принципе Ландауэра.

В нем утверждается, что минимальные энергетические требования для ИОИ намного превышают текущее мировое производство энергии.

Документ был отклонен Сэмом и просочился в прессу в январе 2024 года.

Тема: Термодинамическая невозможность создания ИОИ.

Автор: Илья Суцкевер, главный научный сотрудник.

Ключевое ограничение: Принцип Ландауэра определяет минимальное рассеивание энергии на бит информации.

Вывод: Для работы ИОИ потребуется в 5000 раз больше энергии, чем текущее мировое производство.

593cf88c-0e4f-4999-8803-52bb5bf9976e.jpg

Рис 2

На изображении представлена информация о принципе Ландауэра, фундаментальном физическом пределе необратимых вычислений, который определяет минимальные энергетические затраты на стирание информации.    

Принцип Ландауэра: Фундаментальный предел необратимых вычислений, определяющий термодинамические затраты на забывание (стирание бита информации).

Формула: Минимальная энергия (E) для рассеивания в виде тепла при стирании бита составляет E ≥ kT ln2.

Механизм: Стирание бита (переход из упорядоченного состояния 0 в неупорядоченное стертое) необратимо увеличивает энтропию и приводит к выделению тепла.

Энергетические затраты: При комнатной температуре (300K) минимальные затраты энергии составляют примерно 𝟐.𝟖𝟕×𝟏𝟎 в −𝟐𝟏 степени, джоулей на операцию стирания бита.

Фундаментальный предел: Это не технологическое ограничение, а фундаментальный закон физики, который нельзя обойти ни с помощью квантовых, ни с помощью других передовых технологий, работающих при температуре выше абсолютного нуля.

2af9df62-4b28-4e9f-8577-578e15e93f61.jpg

Рис 3

На изображении представлена инфографика, посвященная минимальным вычислительным и термодинамическим требованиям для достижения искусственного общего интеллекта (AGI) человеческого уровня.

В ней сравниваются энергетические затраты человеческого мозга с теоретическим энергетическим порогом для AGI, который составляет 2900 Вт.

Человеческий мозг работает с эффективностью около 20 Вт.

Теоретический минимум энергии для AGI человеческого уровня составляет 2900 Вт.

Требуемая мощность AGI в 145 раз превышает биологическую эффективность человеческого мозга.

Эти расчеты основаны на оптимальной вычислительной эффективности и не учитывают накладные расходы на охлаждение или перемещение данных.

e6eca9de-c761-45b1-9832-efe3d51fb900.jpg

Рис 4

На изображении представлена концепция энергетического каскада и вывод о том, что масштабирование общего искусственного интеллекта (AGI) до миллиардов единиц превышает энергетические возможности планеты на 2-3 порядка величины.

Теоретический предел Ландауэра для идеальной эффективности вычислений составляет 2900 Вт.

Реальные инженерные накладные расходы (охлаждение, перемещение данных, исправление ошибок) увеличивают этот показатель в 1000 раз.

Для непрерывной работы даже одного AGI человеческого уровня требуется 2,9 мегаватта.

Масштабирование AGI до глобальных потребностей физически невозможно из-за ограничений в производстве энергии.

dafb4ac0-bd2c-46cc-bc04-f59013871d6f.jpg

Рис 5

В инфографике опровергается миф о том, что квантовые вычисления не подвержены термодинамическим ограничениям, и утверждается, что квантовые системы на самом деле более энергозатратны, чем классические.  

Классические вычисления требуют примерно (3×10 в −20 степени) Дж/бит при комнатной температуре.

Квантовые вычисления требуют примерно (3×10 в −14 степени) Дж/кубит (включая охлаждение), что в 1 000 000 раз дороже.

Основная причина высоких затрат — необходимость постоянного криогенного охлаждения до 0,015 К (15 милликельвинов).

Квантовая когерентность быстро распадается (около 50 мкс) из-за шумов, что требует массивного резервирования и систем коррекции ошибок.

ff8065f8-7310-432b-8204-5122321cfd94.jpg

Рис 6

Это скриншот предполагаемого конфиденциального электронного письма от Ильи Суцкевера (Ilya Sutskever) Совету директоров OpenAI от 17 ноября 2023 года, в котором он выражает обеспокоенность по поводу реалистичности сроков достижения AGI (искусственного общего интеллекта), заявленных инвесторам, основываясь на фундаментальных физических ограничениях.

Ключевая информация:

Суцкевер утверждает, что термодинамические расчеты показывают физическую невозможность достижения AGI в течение 5–10 лет.

Он считает, что продолжение привлечения капитала на нереалистичных сроках является существенным искажением фактов для инвесторов.

Сэм Альтман (Sam Altman) не принимает эти расчеты, считая, что проблему можно решить с помощью архитектурных инноваций.

Сообщается о реакции членов совета директоров (Хелен Тонер обеспокоена, Адам Д'Анджело встревожен, Таша Макколи поддерживает), голосовании совета директоров и последующей отставке Суцкевера.

bab40315-b8ea-4b76-9fa7-822ffcecaf5e.jpg

Рис 7

На изображении представлен скриншот из приватного канала Slack руководства OpenAI, датированный ноябрем 2023 года, в котором обсуждается внутренняя коммуникация по поводу сроков достижения AGI и опасений Ильи Суцкевера относительно термодинамической невозможности конечной цели.

Руководители, включая Сэма Альтмана и Грега Брокмана, договорились скрыть эту информацию от инвесторов, сосредоточившись на краткосрочных достижениях и масштабировании вычислений.

Ключевая информация:

Стратегическая нечестность: Руководство признает научную обоснованность термодинамического анализа, но считает его "стратегически нерелевантным" для инвесторов.

Согласование руководства: Команда пришла к консенсусу, что "повествование" о прогрессе приоритетнее физической реальности.

Вопрос о раскрытии информации: Мира Мурати подняла вопрос о прозрачности для инвесторов, но получила отказ от Сэма Альтмана.

Утечка: Информация была опубликована в январе 2024 года через анонимный источник и подтверждена метаданными экспорта Slack.

8d3dc7fa-3229-4dc9-be77-a531b4e05673.jpg

Рис 8

Изображение представляет собой конфиденциальный документ, озаглавленный «Омерта индустрии: термодинамическая истина, которую все знают, но не говорят».

В нем утверждается, что крупные игроки в области искусственного интеллекта (ИИ), включая Sequoia Capital, Andreessen Horowitz, Microsoft, Google DeepMind, Meta AI Research, Anthropic, Tiger Global, Founders Fund и Softbank Vision Fund, скрывают от общественности и инвесторов информацию о термодинамической невозможности достижения общего искусственного интеллекта (ОИИ) в предлагаемые сроки.

В документе утверждается, что для ОИИ потребуется (10 в 21 степени, Вт непрерывной мощности, что в 100 миллионов раз превышает мировое производство энергии.

Утверждается, что все крупные лаборатории ИИ с опытом в области физики подтвердили этот вывод.    

Для ОИИ требуется 10 в 21 степени, Вт непрерывной мощности, что термодинамически невозможно в текущих условиях.

Каждая крупная лаборатория ИИ с опытом в области физики подтвердила эту невозможность.

Ни одна из компаний не раскрыла эту информацию инвесторам или общественности, поскольку модель венчурного капитала требует нарратива роста.

Утверждается, что отставка Суцкевера из OpenAI является редким нарушением молчания индустрии по поводу термодинамической реальности.

6b36dcf1-f015-4c4f-a43d-007fe73478a2.jpg

Рис 9

На изображении представлен анализ, утверждающий, что создание общего искусственного интеллекта (ОИИ) в его общепринятом понимании термодинамически невозможно из-за фундаментальных физических ограничений, а не инженерных проблем.

Предел Ландауэра: Фундаментальный энергетический минимум для необратимых битовых операций делает невозможным создание ОИИ ниже определенного порога мощности.

Квантовые барьеры: Миниатюризация сталкивается с фундаментальными квантовыми пределами, такими как принцип неопределенности Гейзенберга, что приводит к высоким показателям ошибок в наноустройствах.

Перемещение данных: Перемещение данных (узкое место фон Неймана) доминирует в энергетическом бюджете современных систем (94% энергии), делая требования ОИИ к пропускной способности памяти нереализуемыми в планетарном масштабе.

Энергетический масштаб: Требования к энергии для одного ОИИ (2,9 МВт) в 100 миллионов раз превышают текущую глобальную выработку энергии, что требует покрытия 22% суши Земли солнечными панелями для каждой такой установки.


Научный руководитель OpenAl (разработчик ChatGPT) Илья Суцкевер объявил об уходе из компании.

Это произошло на фоне разногласий с главой компании Альтманом по поводу того, как быстро надо развивать ИИ и не будет ли он угрожать человеку

«Спустя почти 10 лет я принял решение покинуть OpenAI», — написал он в соцсети X (ранее Twitter, заблокирована в России).

И выразил уверенность, что компания под руководством гендиректора Сэма Альтмана создаст «безопасный и полезный искусственный разум» (artificial general intelligence, AGI).

Суцкевер сообщил, что в свое время расскажет о новом проекте,  который «очень важен» для него лично.

«Илья и OpenAI собираются расстаться», — подтвердил уход Суцкевера глава компании Альтман. Он назвал его «одним из величайших умов поколения, путеводной звездой в нашей области и дорогим другом», который «так сосредоточен на достижении лучшего будущего для человечества». «Без него OpenAI не была бы тем, чем она является», — отметил Альтман в Х.

Он сообщил, что пост Суцкевера займет директор OpenAI по научным исследованиям компании Якуб Пачоцки.

Суцкевер родился в 1984 году в Нижнем Новгороде. В 1991-м вместе с семьей эмигрировал в Израиль, откуда переехал в Канаду.

В Торонто в 2012 году он сделал себе имя, став соавтором статьи о необычайных возможностях алгоритмов «глубокого обучения».

В 2015 году Суцкевер стал главным научным сотрудником OpenAI, сосредоточившись на двух идеях: системы ИИ могут развивать мышление до уровне человека (AGI) и они могут быть опасны, если не «согласованы» с человеческими ценностями.

В конце 2022 года Суцкевер заявил сотрудникам, что обеспокоен тем, что в конечном итоге AGI будет относиться к людям так же, как люди в настоящее время относятся к животным, рассказали ранее источники The Wall Street Journal.

Именно из-за этого Суцкевер поссорился с Альтманом, отметили они. 

В ноябре 2023 года Суцкевер стал одним из четырех членов совета директоров OpenAI, которые предложили уволить Альтмана.

По данным источников WSJ, именно Суцкевер инициировал увольнение Альтмана, который перешел в Microsoft.

После этого 700 из 770 сотрудников OpenAl пригрозили, что последуют за Альтманом.

Возмутились инвесторы.

В результате Суцкевер заявил, что глубоко сожалеет о своем участии в действиях совета директоров и пообещал «сделать все, что в его силах, чтобы воссоединить компанию».

Вскоре Альтман был восстановлен в должности.

Он сразу заявил, что Суцкевер не вернется на прежний пост члена совета директоров, но компания «обсуждает, как он может продолжить свою работу в OpenAI».

В последующие месяцы Суцкевер практически исчез из поля зрения общественности, что вызвало слухи о его дальнейшей работе в компании, отмечает Time.

Пост Суцкевера об уходе из OpenAI стал его первым появлением в соцсети почти за полгода, подчеркивает издание. 

Авторство: 
Копия чужих материалов

Комментарии

Аватар пользователя Тигр Шрёдингера
Тигр Шрёдингера(2 года 11 месяцев)

Я уже говорил что Кремнезёмная форма жизни будет требовать на свою физиологию больше энергии

Но я не понял, как он получил 2,9кВт (кстати не так и много), а потом еще накидал потери на куб, надо бы пересчитать...

Аватар пользователя jawa
jawa(9 лет 3 месяца)

Я уже говорил что Кремнезёмная форма жизни будет требовать на свою физиологию больше энергии

Все всегда забывают, что разум человека - это не только лишь мозг, мозг - это всего лишь недавняя добавка к древнему как динозавры спинному мозгу, который рулит животными инстинктами и яростной жаждой жизни, а спинной мозг - место сбора нервов бегущих по всему телу и дающих реальность в ощущениях. Тело - это нехилая такая часть разума.

Так что при попытке создать разум придётся изобретать всё это заново и в случае успеха - получится разумное существо  - конкурент для человечества. А нам точно нужны такие конкуренты?

Аватар пользователя Тигр Шрёдингера

Тело - это нехилая такая часть разума

Просто энергия связи для молекул белков, жиров углеводов и кристаллов металлов (где больше, одно печатаются при комнатной температуре, а другое выплавляется в домне)

конкурент для человечества

Почему конкурент, это будет продолжение, человек на новой базе. Разве дети "конкуренты" родителей (хотя если живешь вечно...)

Аватар пользователя jawa
jawa(9 лет 3 месяца)

Почему конкурент, это будет продолжение, человек на новой базе.

Это вы так считаете, существо другого вида может считать по-другому.

Разве дети "конкуренты" родителей (хотя если живешь вечно...)

Дети относятся к тому же виду и являются продолжением человека в будущее. А конкурент другого вида будет усилия направлять:

в лучшем случае - только на пользу своего вида,

в худшем - во вред человечеству.

Аватар пользователя Тигр Шрёдингера
Тигр Шрёдингера(2 года 11 месяцев)

Природа же на соплях сделала, мы просто обязаны создать подобное если не из металла, то на своих полимерах (ну всегда можно сделать сервитора из чей-то тушки)

Аватар пользователя alvl
alvl(7 лет 1 месяц)

Природа сделала на адово сложной базе на самом деле, и такие полимеры нам недоступны для манипулирования

Аватар пользователя Тигр Шрёдингера

Костыль на костыле

полимеры нам недоступны для манипулирования

Тогда берем уже имеющиеся от природы (опять сервиторы получаются...)

Аватар пользователя фыр
фыр(5 лет 10 месяцев)

Тогда берем уже имеющиеся от природы (опять сервиторы получаются...)

1. Зачем брать? Если у нас и так естественный интеллект есть?

2. Как брать? Если мы не понимаем, как работает естественный интеллект?

Аватар пользователя Тигр Шрёдингера

1) Так эксплуатация же

2) СМ пункт 1, если его полностью выкинуть то и сейчас всё в полне приемлемо (да и понимать не надо, взяли тушки и используем в качестве ПЛК и Роботов)

Аватар пользователя фыр
фыр(5 лет 10 месяцев)

1) Так эксплуатация же

Ой ли? Кто эксплуатирует кого? А с AGI эксплуатации не будет? С хрена ли?

2) СМ пункт 1, если его полностью выкинуть то и сейчас всё в полне приемлемо (да и понимать не надо, взяли тушки и используем в качестве ПЛК и Роботов)

Не уходите от темы:

2. Как брать? Если мы не понимаем, как работает естественный интеллект?

Аватар пользователя Тигр Шрёдингера

Как брать? Если мы не понимаем, как работает естественный интеллект?

Обычных людей и "заставлять" их работать, в общем всё то что и сейчас происходит (а можно даже чисто мозг и пытаться делать из него «умный ПЛК»)

Кто эксплуатирует кого?

Робот с "тупым" ИИ должен выполнять простую работу обычного рабочего, если это получится то открывает возможность к масштабированию производства без ограничения по отношению к текущему населению (вот страна на 150М, а роботов, да сколько ресурсов хватит) (+ решение эксплуатации, но это для любителей коммунизма)

AGI и будет Человеком, поэтому я не знаю зачем он вот прям сейчас нужен

Аватар пользователя фыр
фыр(5 лет 10 месяцев)

Обычных людей и "заставлять" их работать, в общем всё то что и сейчас происходит (а можно даже чисто мозг и пытаться делать из него «умный ПЛК»)

 Зачем тогда нужен ИИ и AGI?

Робот с "тупым" ИИ должен выполнять простую работу обычного рабочего, если это получится то открывает возможность к масштабированию производства без ограничения по отношению к текущему населению

Так оно не работает и не будет никогда работать.  Литейку видели? Попробуйте работяг ИИ заменить. Или девок в сборке последнего аппле.

AGI и будет Человеком, поэтому я не знаю зачем он вот прям сейчас нужен

AGI не будет до тех пор пока мы не поймем как оно работает. 

Аватар пользователя Тигр Шрёдингера

Зачем тогда нужен ИИ и AGI?

AGI путь к иной разумной форме жизни, ИИ замена рабочих что "эксплуатируют" (рабочий не учавствует в управлении поэтому всегда "эксплуатируемый"). +Робот производительнее и у него меньше потребностей, а люди плохо плодятся или их мало

Так оно не работает и не будет никогда работать.  Литейку видели? Попробуйте работяг ИИ заменить. Или девок в сборке последнего аппле

Так уже сейчас робот с ИИ начинает выполнять простую работу где нужны руки, а мозгов только как ПЛК для них. Пока это еще все сыро, но в ближайшие лет 5-10 мы точно увидим тыква это или нет (нейромазня однако уже рисует лучше чем многие не точно люди, "художники". А раньше смеялись).

Аватар пользователя фыр
фыр(5 лет 10 месяцев)

AGI путь к иной разумной форме жизни,

Зачем? Чтобычто? Кому это надо?

ИИ замена рабочих что "эксплуатируют" (рабочий не учавствует в управлении поэтому всегда "эксплуатируемый").

Пока ИИ заменяет офисных, но и не сказать, что успешно.

+Робот производительнее и у него меньше потребностей

Там где можно заместить рабочих - эта замена уже произошла. А китайские девочки продолжают собирать эппле вручную. Отчего?

а люди плохо плодятся или их мало

8 миллиардов и на полку это число выходить не собирается.

Так уже сейчас робот с ИИ начинает выполнять простую работу где нужны руки, а мозгов только как ПЛК для них.

Да, да. У меня робот пылесос и без всяких ИИ норм пылесосит. ИИ ему избыточен.  Слабо себе могу представить где может быть применен именно робот именно с ИИ.

нейромазня однако уже рисует лучше чем многие не точно люди, "художники".

А она не рисует - составляет токены. Попробуйте от ИИ получить две одинаковые картинки по одному промту - не получится, а Айвазовский написал десятки разных "Девятых валов". Уж о качестве и не говорю. Но главное, кому и зачем нужны мириады говнокартинок, говнотекстов, говнокода, когда все это говно уже есть. Чтобычто? Юзерам нужны шедевры, а не "вотэтовотвсе".

Аватар пользователя Тигр Шрёдингера

Зачем? Чтобычто? Кому это надо?

Пока не надо, но если мы не сможем в "КосмоОперу" то это единственный способ достичь других звезд (например)

Слабо себе могу представить где может быть применен именно робот именно с ИИ.

рабочих - эта замена уже произошла. А китайские девочки продолжают собирать эппле вручную. Отчего?

Еще не полностью, т.к в "мозгах" и есть проблема классической Автоматизации она очень не гибкая и зависит от серии, нужно очень много выпускаемой продукции для "окупаемости" всех автоматов от подачи сырья до упаковки (и всё это в стиле "if/else"). А это еще всё нужно обслуживать. Вот идея робота с ИИ в том что он почти такой же гибкий и многозадачный как человек (форма может быть любая оптимальная для текущей задачи), но т.к. это не AGI оно не будет ныть о потребностях. Научили нейросетку правильно варить, вот пусть и бегает загруженная в паукоподобное и варит металлоконструкции (а много ли нейронов в башке Хуманыча участвует в позиционировании его лапок и считывании параметров сварного шва? Камеры лучше чем глаза есть, привода тем более лучше. Нужно только объяснить "как это делать", соотнести модель с реальным обьектом)

Ну а уже про боевое, способное +/- само себя позиционировать на местности, самостоятельно определять и поражать цели, выпускаемое на АвтоРоботизированных заводах бесконечно большими сериями... наверно говорить не надо?

Так что в ближайшее время увидим

(кстати "черные фабрики" в Китае уже есть, а про нейромазню это было/стало, раньше Лавкрафтовская хтонь, а теперь даже смотрибельные ролики или "видео")

Аватар пользователя Al-хим
Al-хим(3 года 4 месяца)

Природа же на соплях сделала

Речь дилетанта (извините, конечно, это не попытка обидеть, а просто констатация).

На самом деле биохимия - это ох... как сложно. А биохимия в комплекте с информатикой (а она в живых организмах именно в этом комплекте идёт) ещё интереснее.

Аватар пользователя Тигр Шрёдингера

Не спорю что сложно, но оно же работает. Значит это возможно повторить, просто мы пока не знаем как...

Аватар пользователя Al-хим
Al-хим(3 года 4 месяца)

Есть устройства, которые работают, но повторить их можно только теоретически. Например, такое несложное устройство, как наше Солнце (работает, и ещё как), человек на практике повторить не может. Речь не о игрушке в виде ТЯ бонбы, а о реальном устройстве. Так же и комп является полезной, но игрушкой, по сравнению с.

Аватар пользователя Тигр Шрёдингера

комп является полезной, но игрушкой

Это не игрушка а полезная Электронная Вычислительная Машина (как использовать другое дело).

устройство, как наше Солнце

Мы пока не знаем как заставить работать термояд, но тут еще вопрос в физической реализуемости на текущих технологиях

Аватар пользователя фыр
фыр(5 лет 10 месяцев)

Мы пока не знаем как заставить работать термояд

А как работает интеллект, сталобыть, знаем? 

Аватар пользователя Тигр Шрёдингера

Нет, но принцип тот же

Аватар пользователя Al-хим
Al-хим(3 года 4 месяца)

Совсем, совсем не тот же. Про водородную бонбу более менее понятно (кому следует), про мышление непонятно никому. И вполне очевидно, что мышление по своим законам принципиально отличается от работы компьютера (включая ИИ). 

Один из очевиднейших примеров - целеполагание. Человеки в него умеют, а ИИ - даже на горизонте не просматривается.

Аватар пользователя BarBoss
BarBoss(11 лет 2 месяца)

Один из очевиднейших примеров - целеполагание. Человеки в него умеют, а ИИ - даже на горизонте не просматривается.

У всего живого одно целеполагание - не сдохнуть и произвести потомство. То живое, которое этому не следовало больше неживое. Человек навыдумывал себе всякой дичи о том, что он пуп земли и всё крутится вокруг него, даже бога для этого выдумал... Но это не целеполагание. Это глюки наркомана, которого штырит и без наркоты.

Аватар пользователя Al-хим
Al-хим(3 года 4 месяца)

У всего живого одно целеполагание - не сдохнуть и произвести потомство. 

Да пофиг веники, хотя бы и такое целеполагание, можно не трогать высокие материи. Но оно есть. А у калькулятора его нет. А чтобы у калькулятора оно появилось, его должен прописать программист, само не появится.

Человек навыдумывал себе всякой дичи о том, что он пуп земли

То, что человек считает себя пупом земли - это объективный факт, и совершенно неважно, считаем ли я или Вы его обоснованным. Даже если чел себе цели тупо выдумал, они появились. Вот так взяли, и появились, не было, а теперь есть. А калькулятор не выдумывает, и на сегодняшний день никто даже представить не может, как это могло бы случиться.

Аватар пользователя Тигр Шрёдингера

не знаем как заставить работать (вставьте нужное), но тут еще вопрос в физической реализуемости на текущих технологиях

:]

Один из очевиднейших примеров - целеполагание. Человеки в него умеют, а ИИ - даже на горизонте не просматривается.

Меня другое интересует, создать робота с ИИ чтобы он был более гибким и самостоятельным в решении простых нетривиальных задач ну как обычный рабочий, это одно.

Но создавать "машину подобную разуму человеческому", зачем? Чтобы потом слушать от него нытье по теме эксплуатации или всякие душестрадания? Если его когнитивные возможности будут больше (а они могут быть больше, одна голова или ЦОД размером с звездную систему), кто уже будет "начальник" а кто "дурак".

Это имеет смысл только в случае "перехода" на иную форму жизни (не из костей и мяса, а из металла и синтетики). Стоякость таких людей будет выше но как и их потребление энергии на свое функционирование (такие почти "вечные" локальные Демиурги)

Аватар пользователя Al-хим
Al-хим(3 года 4 месяца)

создавать "машину подобную разуму человеческому", зачем? Чтобы потом слушать от него нытье по теме эксплуатации или всякие душестрадания?

smile3.gif и будут ностальгировать по временам, когда электричество было по 5 копеек за киловатт-час...

Аватар пользователя Тигр Шрёдингера

ЭЭ по 5 копеек было тогда когда кроме электромоторов и эеетролизеров да лампочек, особо ничего не ело. А сейчас уже столько всяких потребителей...

Но выше сказанное это если получится создать такую чтоб много не кушала

Аватар пользователя фыр
фыр(5 лет 10 месяцев)

Нет, но принцип тот же

Нет. И принцип другой. Начнем с того, что компьютерная техника - цифровой, а мозг - аналоговый. Есть небольшая, но принципиальная, разница. Поэтому к AGI принцип Ландауэра применим, а к мозгу нет. В этом и главная ошибка Суцкевера.

Аватар пользователя Тигр Шрёдингера

Я не про ЭВМ/мозг, а про то что мы не только не понимаем как оно работает, но оно может быть физически не реализуемо при текущих технологиях

Аватар пользователя фыр
фыр(5 лет 10 месяцев)

А я про то, что нельзя обобщать термодинамические представления применимые к цифре на работу естественного интеллекта. Ошибка может быть не на три, а на десятки порядков.

но оно может быть физически не реализуемо при текущих технологиях

Так оно и не рализуемо. Более того, и реализовать его не нужно. 

Аватар пользователя Тигр Шрёдингера

Понятно, просто у нас пока кроме цифры 0 и 1 ничего особо то и нет вот и мучаются. Считаю что интеллект либо есть либо его нет (Е/И это уже вопрос происхождения). А вот реализуемость аппаратной части для этого самого "интеллекта" на более стойких и долговечных материалах может быть и действительно "физика против"

Аватар пользователя фыр
фыр(5 лет 10 месяцев)

Понятно, просто у нас пока кроме цифры 0 и 1 ничего особо то и нет вот и мучаются.

Отчего же. Есть и троичная логика. Есть варианты перехода на восьмеричную. Дело в том, что цифра - квантирована, а мозг - аналоговый.

Считаю что интеллект либо есть либо его нет

Это как угодно. 

Аватар пользователя Тигр Шрёдингера

Да, я еще хотел сказать про троичную или иную но как вы уже сказали всё это "цифра" (двоичная просто удобна в кремнии, есть заряд и нет заряда 1 и 0)

Аватар пользователя Al-хим
Al-хим(3 года 4 месяца)

цифра - квантирована, а мозг - аналоговый

По сути аналоговые устройства можно дискретизировать до цифровых, но это чрезвычайно ресурсозатратно. Так то аналоговые биохимические сигналы в конце концов сводятся к дискретным молекулам и их дискретным градиентам в дискретном растворителе (воде). Но если в цифрах попытаться описать с точностью до отдельной молекулы воды, то уже будет неподъёмно. Просто количество независимых переменных в уравнениях станет столь велико, что исчезнет даже теоретическая возможность ("в будущем") это посчитать. 

Пример: в квантовой химии оказалось, что точный расчёт даже одного атома возможен только для атома водорода и подобных ему частиц, а даже единичный более сложный атом считается лишь приблизительно, а молекула тем более.

Это даже если не трогать принцип неопределённости.

Аватар пользователя Alenwrench
Alenwrench(2 года 10 месяцев)

Энергетический масштаб: Требования к энергии для одного ОИИ (2,9 МВт) в 100 миллионов раз превышают текущую глобальную выработку энергии, что требует покрытия 22% суши Земли солнечными панелями для каждой такой установки.

2.9 МВт (пусть 3 Мвт) - это потребление города в 5-10 тыс. жителей. В чем проблема? Понятно, что такую хрень в любой утюг не засунешь, но вроде этого и не требуется? Кстати, Сургутская ГРЭС-2 имеет мощность 5 657,1 МВт.  

Аватар пользователя Mikola_Lipetskoy
Mikola_Lipetskoy(13 лет 7 месяцев)

Возможно в тексте потерялись десять в двадцать первой степени....

которые фигурируют на слайдах

Аватар пользователя vikarti
vikarti(11 лет 5 месяцев)

Текст похоже не совсем отражает слайды.

Слайды для людей которые очень четко понимают что у LLM энергия жрется на две задачи в основном:

  • обучение модели (training) - нужно ОДИН раз (ну точнее на попытку которая может быть и не успешной) - по первому слайду надо 10^21 ватт 
  • inference (тут наверно правильно перевести - использование, нет нормального аналога) - вот каждый раз как человек с ChatGPT и прочими общаются - делается inference, по этим слайдам для inference надо 2.9 мегаватта но постоянно и на каждый экземпляр (не сеанс общения но скорее десятки-сотни сеансов, не миллионы и не десятки тысяч). И это проблема хотя бы потому что в России например стоимость 2.9 мегаватт-часов - насколько получилось найти примерно от 5к до 30к рублей. Система чисто по энергии хотя бы должна окупать эти затраты.

Аватар пользователя фыр
фыр(5 лет 10 месяцев)

Слайды для людей которые очень четко понимают что у LLM энергия жрется на две задачи в основном:

Понимаете какое дело. На слайдах обсуждается AGI. G -  general не имеет отношения к LLM. Речь идет од интеллекте сравнимом с человеческим. LLM интеллектом не обладает в принципе.

Аватар пользователя ПРОЛ
ПРОЛ(10 лет 6 месяцев)

Этот Альтман предельно цинично выразил всю ложь мира, который вокруг нас обтекает: всем плевать, что конечная цель невозможна, если в ближайшие годы рисуются такие перспективы (и чего-то там про инвесторов добавил). Как в детском анекдоте, смотрю - блестит, хвать - сопля.

Только эти ублюдки ведь ради перспектив человеческие жизни и саму человеческую суть ломать через колено будут. А дебилы им рукоплескать будут, стомиллионными толпами.

Аватар пользователя Barry
Barry(8 лет 1 неделя)

Цель сего действа примитивна - бабки, бабульки, баксы, пенёнзы, ...

Ищите цель - всё остальное приложится. 

Аватар пользователя ПРОЛ
ПРОЛ(10 лет 6 месяцев)

А че искать, он сам именно это и сказал. Только там больше чем бабки, там власть, идеология ("нарратив") и прочая адская смесь гордыни с безумием.

Аватар пользователя Barry
Barry(8 лет 1 неделя)

Вся проблема в том что "бабки, власть" - сиё СРЕДСТВО!

Накопление средств без цели (большой и настоящей) - типичное ожирение и деградация! Циклоиды с жаждой средств - что кадавр неудовлетворённый желудочно (братья Стругацкие "Понедельник начинается в субботу")  Жрёт как не в себя, а смысл???

Аватар пользователя ПРОЛ
ПРОЛ(10 лет 6 месяцев)

Настоящего у них уже ничего не осталось, самое настоящее - вставные зубы.

Аватар пользователя Barry
Barry(8 лет 1 неделя)

smile9.gif

smile19.gif

Аватар пользователя SlasNsk
SlasNsk(5 лет 2 недели)

(и чего-то там про инвесторов добавил)

Им, сказал, довольно будет материалов по ближнесрочным целям и по масштабируемости системы.

А чуть выше обосновал (как бы): - Проблемы физики станут проблемами после 2030-го, к тому времени мы уже будем другой компанией.

Цинично, с т.з. капиталовлагателей.

Аватар пользователя Muller
Muller(14 лет 2 недели)

С точки зрения классической равновесной термодинамики жизнь вообще невозможна (причем чем сложнее, тем невозможнее, на этом основана классическая логическая ловушка, известная как "дыба Больцмана", которая привела в религию немало неплохих ученых). И что, мы уже перестали существовать?

Поэтому все это лажа. Человек несовершенен, глючен его разум и слаба его плоть, превзойти его не так уж и сложно.

Аватар пользователя Granderator
Granderator(8 лет 2 месяца)

Однако, мозг человека, с его распределенной взаимосвязью 85 млрд нейронов, каждый из которых оперирует несколькими десятками тысяч синапсов, до сих пор ставит инженеров в тупик

Аватар пользователя Muller
Muller(14 лет 2 недели)

Да, система достаточно сложная. Но ее сложность конечна. И большим количеством элементов на самом деле приходится компенсировать низкую скорость их взаимодействия.

Аватар пользователя Al-хим
Al-хим(3 года 4 месяца)

Сложность системы - это её материальная часть (что на ИТ слэнге называется "железо"). А есть ещё софт. И если о "железе" мозга определённые представления имеются (хотя и весьма приблизительные), то о софте мы не знаем почти ничего. Поле непаханое.

Аватар пользователя Географ глобус пропил

Более того, инженеров ставит в тупик даже один-единственный нейрон, который на деле является аналоговым организмом, и потому на заре нейронных сетей его моделировали бинарным логическим переключателем.

Страницы