Уточнение вопросов в проблематике ИИ
В одной из своих предыдущих заметок я подробно останавливался на определении того, что имеется ввиду при обсуждении проблематики ИИ – слабый/сильный(общий)/супер-ИИ. Не буду повторяться, отмечу лишь, что само наименование «Искусственный Интеллект» мне кажется неудачным и двусмысленным, коль скоро нет признанного определения интеллекта естественного. А из некоторых принятых определений (например: «способность мыслить»; «способность к опосредованному, абстрактному познанию, в том числе, образованию понятий, суждений, умозаключений») следует, что у представителей вида Sapiens он варьирует в очень широких пределах, а некоторые, пожалуй, интеллектом и вовсе не обладают. Следует с определённостью констатировать, что в рамках упомянутой классификации, говоря о семействе GPT-подобных моделей, мы обсуждаем именно слабый ИИ, а правильнее и точнее – автоматизированную экспертную систему, т.е. систему, способную обрабатывать самые разные запросы в автоматическом режиме. Такую систему правильнее именовать Имитацией Интеллекта - и именно так я предлагаю использовать всем известную аббревиатуру ИИ в данном сообщении.
Таких автоматизированных экспертных систем существует множество в самых различных областях – система-шахматист, система-художник, система-врач, система-биржевой игрок и т.п. Подобные системы полностью проектируются и контролируются человеком, и в целом ряде конкретных приложений уже превзошли лучшие человеческие достижения (например, в игре в шахматы).
А вопросы, которые возникают применительно к GPT-ИИ таковы:
- Есть ли у таких систем перспектива доразвиться до сильного ИИ?
- Могут ли такие системы уже сейчас (либо с реалистично прогнозируемой доработкой) принципиально изменить социально-экономический ландшафт современной цивилизации? И если «да», то в каком направлении пойдёт развитие?
Именно эти вопросы я и собираюсь обсудить в настоящей заметке.
Прежде чем перейти к изложению, хотел бы сделать одно замечание.
«Синдром программиста» в восприятии картины мира
Тут на АШ недавно опубликовали копию статьи, появившейся в «песочнице» на habr’е (форум, преимущественно, программистов), в которой обсуждаются ровно те же вопросы. Я ничего не имею против программистов, сам много кодировал (не оптимизацию учёта клиентов в женской бане, а довольно сложные научные расчёты и автоматизацию/обработку результатов экспериментов). Но когда «карьерный» программист берётся писать на такие сложные, многогранные, «мультимодальные», если хотите, темы как «сила ИИ», то результат получается неубедительным, как идейно, так и методически (в смысле строгости терминологии и логичности умозаключений). Весь пафос упомянутой статьи можно свести к известной максиме одного из героев фильма «Москва слезам не верит»: «в будущем будет одно сплошное телевидение» (в нашем случае – «сплошное программирование»). Философия, нейробиология, когнитивистика? – Нет, не слышал. Прогресс в разработке Chat-GPT habr-автор интерпретировал довольно своеобразно (это и есть суть «синдрома программиста»):
Я материалист, и поэтому мне радостно видеть впечатляющие успехи больших языковых моделей как то GPT или PaLM…Эта радость - она от подтверждения правоты, что мы являемся пусть сложными, но всё таким биологическими машинами, и следовательно мы полностью познаваемы, что трансцендентной души у нас нет, что после смерти ничего не будет, а самосознание является феноменом развитой нервной системы.
Так вот, в данной работе предлагается совершенно иной, чем у программиста-материалиста, взгляд на проблему сознания в целом и проблему «силы ИИ» в частности.
Фундаментальный аспект разработки GPT-подобных моделей ИИ
В опубликованной недавно на АШ статье в стиле «ChatGPT для чайников» популярно объяснялось как устроена эта модель и чем она не является: «это не «Бог из машины», не разумное существо, не аналог школьника (по уровню интеллекта и умению решать задачи), не джинн…». Это всего лишь нейросетевая языковая модель, спроектированная так, чтобы, с учётом контекста, строить, слово за словом, предложения по принципу наибольшей вероятности. Казалось бы, что таким путём вряд ли можно достичь содержательных результатов – очевидно, что результаты будут критически зависеть от обучающего data-set`а и такая нейросеть может, разве что, быть полезна в узкой предметной области. Неожиданно оказалось, что размер имеет значение, и, как это хорошо показано в упомянутой статье, при превышении некоторого порогового для модели числа параметров (условно, 200 млн), а также объёма обучающих данных, результаты обучения начинают поражать воображение! Модель демонстрирует впечатляющие результаты даже в областях, на которые она изначально и не была рассчитана – например, в написании компьютерных программ или игре в шахматы.
Естественные вопросы, которые возникают при оценке успехов GPT-ИИ: насколько алгоритмы GPT успешно имитируют мыслительный процесс человека? Способны ли они «понимать» текст, который они генерируют? Как далеко можно пойти в данном направлении? Сможет ли GPT- ИИ «обрести силу», в конце концов?
GPT-алгоритмы и человеческое мышление
Следует отметить, что создатели нейросетей (в частности, GPT) вовсе не старались детально воспроизвести человеческое мышление, хотя и ориентировались на основные принципы его работы. Это понятно, так как до конца не ясно, как именно на физическом уровне (в мозге) реализовано это мышление. Существует множество нейробиологических теорий сознания (и мышления как его составной части), краткое изложение некоторых основных можно найти в моём анализе обзорной работы К.Анохина. Эти теории, на уровне основных принципов, описывают «зоны ответственности» и способы взаимодействия областей мозга (нейронных цепей коры, таламических ядер, стриатума, гиппокампа, других подкорковых структур), формирование реакций в ответ на стимулы (возбуждение), обработку разнородной информации и принятие решений путём формирования «нейронных групп», «нейронных коалиций», «когов» (постоянных или временных). Всё это пока слишком схематично и недостаточно подробно экспериментально изучено, чтобы стать основой для воспроизведения «в железе».
Существуют и более узкоспециализированные теории о принципах организации собственно мышления. Сформировалось представление о его делении на левополушарную часть (она обеспечивает алгоритмизацию действий, категоризацию, классификацию, использует аналитическую стратегию в узнавании сложных форм, регулирует восприятие сенсорных сигналов, эмоции и поведение) и правополушарную (оперирует целостными образами, дает комплексное восприятие объекта, явления (пространственное мышление); вызывает многочисленные смысловые связи между объектами, явлениями, образами, обеспечивая адекватное восприятие действительности). И эти части сложным образом взаимодействуют в процессе мыслительной деятельности. О том, чтобы формализовать всё это в работающей модели, речи пока не идёт, хотя нейросети это, как раз, попытка продвинуться в этом направлении (из недавних продвижений см. генеративную сеть XDREAM, разработанную в Гарварде).
Искусственные нейронные сети, как математическая модель, начали развиваться ещё в середине пошлого века и изначально, конечно, разрабатывались с учётом принципов функционирования биологических нейронных сетей. И это был серьезный шаг вперёд от классического ИИ (символьная парадигма) к вычислительному интеллекту. Нейросетевые модели ориентировались на особенности организации человеческого мышления: параллельная обработка, распределённый характер вычислений и представления информации, способность к обучению и обобщению и т.п.
Хотя очевидна «функциональная имитация» алгоритмов работы мозга с помощью цифровых вычислительных устройств, нет никаких оснований считать, что обработка информации в мозге – чисто цифровой, дискретный процесс (хотя существуют пороговые сигналы возбуждения («воспламенения») нейронов, так называемые потенциалы действия, спайки и т.п.).
Как и многие другие процессы в мозге, обработка информации в нем является гибридной, то есть сочетает в себе как «цифровые» (точнее, пороговые), так и аналоговые характеристики. Импульсы, которыми обмениваются нейроны, могут иметь различную частоту и форму, что делает их более похожими на аналоговые сигналы. Более того, мозг использует сложные системы обратной связи и модуляции, которые позволяют ему адаптироваться к изменяющейся информации и настраиваться на определенные условия. Эти процессы также имеют как цифровые, так и аналоговые компоненты.
Нобелевский лауреат Пенроуз, вообще, считал процесс мышления «невычислимым», так что его нельзя в принципе симулировать компьютерными алгоритмами. Сам он пришёл к необходимости привлекать для объяснения мышления алгоритмы квантовые, впрочем, на мой взгляд, без особого успеха.
Итак, могу констатировать, что GPT и прочие нейросетевые алгоритмы направлены не на воспроизведение человеческого мышления, а на максимально точную имитацию принципов и результатов его деятельности. И в такой «игре в имитацию» (по выражению Алана Тьюринга) создатели GPT преуспели.
В документе “GPT-4 Technical report” ( OpenAI(2023), март 2023) приводятся достижения версии GPT-4 в сравнении с версией GPT-3.5 в прохождении самых разнообразных человеческих тестов и экзаменов. И эти достижения впечатляют!
GPT-4 демонстрирует результаты на человеческом уровне на большинстве этих профессиональных и академических экзаменов, в том числе на достаточно сложных экзаменах семейства GRE (Graduate Record Examination), которые необходимо сдавать для поступления в аспирантуру/магистратуру в вузах США и ряда других стран (в том числе —Канаде, Швейцарии и Австралии).
Примечательно, что он сдает имитационную версию Единого экзамена в адвокатуру (Uniform Bar Examination, UBE) с результатом топ 10% лучших тестируемых, сразу в несколько раз улучшив достижение GPT-3.5. И это, действительно, свидетельствует о переходе «количества в качество».
Может ли GPT эволюционировать в сильный (общий) ИИ?
Многие эксперты сходятся во мнении, что по-настоящему серьёзные проблемы самого разного рода в связи с эволюцией ИИ встанут перед человечеством тогда, когда он достигнет уровня «сильный ИИ». Напомню, что согласно разделяемому мною определению С.Рассела и П.Норвига «утверждение, что машины действительно мыслят (а не просто имитируют мыслительные процессы), называется гипотезой сильного искусственного интеллекта».
ChatGPT и ему подобные модели именно что имитируют мышление, причём, уже довольно искусно, о чём говорит и прохождение пресловутого теста Тьюринга, и сдача прочих профессиональных тестов. Но это не делает их «сильными».
Здесь уместно вспомнить одно из 9 возражений Тьюринга, а именно, возражение леди Лавлейс: «Аналитическая машина не претендует на то, чтобы создавать что-то действительно новое. Машина может выполнить все то, что мы умеем ей предписать» (курсив леди Лавлейс). Либо, в другой редакции, «машина никогда не сможет создать ничего подлинно нового». Сам Тьюринг парировал это возражение крайне неубедительными аргументами типа “ничто не ново под Луной» и «нельзя сказать, что машина никогда не сможет ничем поразить человека – меня, например, она постоянно поражает, и, вообще, чтобы «поражаться», необходим «умственный творческий акт», на который вы просто можете быть не способны!».
Вопрос «новизны» знания не так прост, как кажется. Я считаю мир вокруг нас объективно существующим, и человек является его частью. Знания, в общем смысле, - совокупность наших представлений о том, как этот мир «на самом деле» устроен. По мере человеческой эволюции эти знания уточняются и усложняются, всё более приближаясь (хочется верить) к истинному пониманию «сути вещей». Новыми (а, по сути, доступными) для человека определённые знания становятся, когда он в состоянии их воспринять, в соответствии с древним принципом «готов ученик – придёт учитель». Для образного представления, можно принять, что некто составил для человека самый полный и подробный перечень всевозможных сведений «обо всём». Обо всём что было, есть и будет. Что-то типа пресловутых «хроник Акаши». В таком перечне есть ответы на все вопросы, которые человек способен задать сейчас или в неопределённо далёком будущем. Человек, по мере своего развития, постепенно подключается ко все более глубоким слоям этого «реестра знаний», пользуясь мозгом, как своеобразным «интерфейсом» (в соответствии с представлениями панпсихизма).
А вопрос, который следует обсуждать, состоит в том, способен ли ИИ на такой, человеческий, способ получения нового знания? И есть ли разумная альтернатива этому способу, пользуясь которой ИИ превзойдёт человека в познавательной деятельности? Пока представляется, что ИИ, максимум, может в своей «познавательной деятельности» использовать человека (манипулируя им) как отмычку к «ларцу знаний».
В процессе обучения языковой модели мы «скармливаем» ей гигантский массив данных, который содержит огромное количество смысловых связей и ассоциаций. Настройка параметров нейросетевых алгоритмов позволяет GPT находить нужные связи и ассоциации на уровне усреднённого, среднестатистического человека. Ключевой момент в том, понимает ли нейросеть те понятия, которыми оперирует? Доступен ли ей смысл либо она его просто удачно угадывает, и если в обучающих данных такого смысла нет (скажем, он подразумевается, но явно не сформулирован), то и нейросеть не сможет его «сгенерировать»?
Понимает ли ChatGPT «смыслы»?
Мы с неизбежностью пришли к обсуждению самой сущности «понимания» и «осмысления», обсуждению, которое ведётся когнитивистами вот уже более 40 лет в связи с мысленным экспериментом (аргументом) Джона Сёрла «китайская комната».
Подробно аргументы «за» и «против» в этой дискуссии сформулированы на сайте Стэнфордской энциклопедии (язык английский). Авторы сайта в заключении к этой дискуссии сделали вывод о том, что «нет единого мнения относительно того, является ли аргумент Сёрла доказательством, ограничивающим устремления искусственного интеллекта или вычислительные представления о разуме». Сам Сёрл полагал, что его аргумент «наносит сокрушительный удар по сильному ИИ».
Эксперты из Стэнфорда указывают на то, что Сёрл выдвигал свой аргумент в то время (1980 год), когда персональные компьютеры были очень редкими и ограниченными устройствами для любителей. Возможно, теперь, в эпоху GPT, аргументы и контраргументы были бы иными. Сейчас, например, Apple уверяет, что виртуальный личный помощник Siri "понимает, что вы говорите. Он знает, что ты имеешь в виду”. А более продвинутая система Watson, которая в 2011 году победила чемпионов-людей в телевизионном игровом шоу "Jeopardy!" (российский аналог – «Своя игра» на НТВ), по мнению её создателей из IBM, отличает то, что она “знает то, что ей известно, и знает то, чего она не знает”. Это, по-видимому, претендует на форму рефлексивного самосознания или сознательности для компьютерной системы Watson.
Для обоснования своей позиции о перспективах «понимающего ИИ» я подробнее остановлюсь на двух «контраргументах» к аргументу Сёрла:
- Один из первых и наиболее распространённый (в число его сторонников входят многие авторитеты в области нейробиологии и ИИ: Деннет, Хогеланд, Фодор, Курцвейл и др.) – «Ответ про Систему» (The Systems Reply). Вот его каноническое изложение:
Да, человек в комнате не понимает по-китайски. Но человек - это всего лишь часть, центральный процессор (CPU) в более крупной системе. Более крупная система также включает в себя огромную базу данных, память (блокноты), содержащую промежуточные состояния, и инструкции – полную систему, необходимую для ответов на вопросы по-китайски. Таким образом, «системный» ответ заключается в том, что, хотя человек, запускающий программу, не понимает по-китайски, система в целом - понимает.
Этот ответ напрямую имеет отношение к GPT-моделям ИИ – сама нейросеть, как алгоритм, не понимает смысла, не пройдя соответствующего обучения на подобранных данных. В случае GPT «система» включает как саму нейросеть, так и набор обучающих данных (чем больше, тем лучше), а также людей, которые готовят и размечают эти данные. Такая система, включающая нейросеть, действительно, сможет оперировать понятиями и искать смыслы, но лишь те, которые изначально заложены в данных, подготовленных людьми, также входящими в эту систему. И такой «интеллект» уже нельзя считать полностью искусственным – в лучшем случае, он гибридный!
Сам Сёрл парировал «Ответ про Систему» соображением, что ничто не мешает нам представить человека, запомнившего все китайские символы и инструкции о том, как с ними оперировать. Такой человек и будет, по определению, «системой», но он по-прежнему не будет понимать китайский, так как нигде в процессе оперирования китайским символами синтаксис (символы) для него не перейдёт в семантику (их смысл) – он, например, не скажет, как будет гамбургер по-китайски.
Когнитивисты, в отличие от физиков и математиков (которые оперируют аксиомами, теоремами и экспериментальными доказательствами), могут позволить себе роскошь не соглашаться друг с другом, настаивая на своей точке зрения и упражняясь в «мысленных экспериментах». Позволю и я себе добавить свои несколько слов в эту дискуссию.
Мне кажется, что гигантские объёмы данных и поразительные вычислительные мощности внесли некий новый аспект в дискуссию вокруг «китайской комнаты». Действительно, парируя «Ответ про Систему», Сёрл вряд ли мог себе представить, что ИИ на каком-то этапе сможет оперировать всеми печатными (точнее, зафиксированными в долговременной памяти в том или ином виде) знаниями, накопленными Человечеством (в том числе, и сопоставлением картинки гамбургера (и не только!) с его названием на любом языке, в том числе, китайском). Таким образом, он, теоретически, всегда сможет определить предмет или понятие так, как если бы он, действительно, понимал, о чём говорит. Вопрос лишь в корректности обучения и объёме обучающей выборки!
Остаётся принципиальный вопрос – но ведь «кормит» и обучает ИИ по-прежнему человек. Если постоянно не «апгрейдить» (дообучать) ИИ с помощью новых знаний, постоянно генерируемых Человечеством, сможет ли он генерировать их самостоятельно? И здесь мы плавно и логично переходим к второму контраргументу:
2. «Ответ про Симулятор мозга» (Brain Simulator Reply).
Рассмотрим компьютер, который работает совершенно иначе, чем обычная программа искусственного интеллекта, со сценариями и операциями над строками символов, похожими на предложения. Ответ Brain Simulator предполагает, что вместо этого программа имитирует реальную последовательность нервных импульсов, которые происходят в мозгу носителя китайского языка, когда этот человек понимает китайский – каждый нерв, каждое возбуждение. Поскольку компьютер в этом случае работает точно так же, как мозг носителя китайского языка, обрабатывая информацию точно таким же образом, он будет понимать китайский язык
Рассмотренный ответ, по сути, есть «версия-лайт» стратегии достижения сильного ИИ через полную эмуляцию работы мозга, которую я уже рассматривал в одной из предыдущих статей. Отчаявшись адекватно воспроизвести в виде алгоритмов сам процесс мышления, адепты такого подхода надеются воспроизвести максимально подробно человеческий мозг, что, по их представлению, автоматически воспроизведёт и мышление. Сам Сёрл, парируя этот контраргумент, предлагает вариант такого симулятора мозга: предположим, что в комнате у человека есть огромный набор клапанов и водопроводных труб, расположенных так же, как нейроны в мозгу носителя китайского языка. Теперь инструкции сообщают человеку, какие клапаны следует открыть/закрыть в ответ на вводимые данные. Серлу очевидно, что понимания китайского языка у человека, по-прежнему, не возникнет.
Здесь, по-моему, Сёрл и прав, и не прав одновременно. Не прав он потому, что если придерживаться физикалистской парадигмы (а сам он является её верным сторонником), то нет никаких видимых препятствий к тому, что, скопировав устройство мозга и обеспечив надлежащее (идентичное человеческому) его функционирование (на уровне биохимии, физиологии и т.п.), мы получим в виде побочного продукта всю полноту мыслительной деятельности человека. В этом и есть сущность физикализма – сознание (и мышление, как его часть) полностью определяется работой мозга и происходящих в нём процессов.
А прав он в том, что, даже полностью скопировав мозг взрослого китайца, мы вряд ли автоматически получим все его знания и жизненный опыт (в том числе, и владение китайским языком). Современная нейробиология просто не знает наверняка, где и в каком виде хранятся эти знания. Более того, всё больше нейробиологов (тот же академик К.Анохин) не разделяют вульгарный физикализм, допуская элементы панпсихизма. А панпсихизм, напомню, трактует мозг как исполнительный (вспомогательный) механизм для процессов (потоков) сознания (и мышления), которые идут и вне мозга.
В любом случае, кажется очевидным, что мало «создать» мозг, его придётся ещё и обучить, ровно так, как сейчас обучается нейросеть. И не факт, что это удастся сделать.
И здесь я перехожу к изложению собственной точки зрения на перспективы «сильного ИИ».
Я считаю, что совершенствование нейросети типа GPT не ведёт к сильному ИИ. И потому, что она никогда не будет «действительно» мыслить, и потому, что этот проект вовсе и не ставит такую задачу. Разберём эти тезисы подробнее.
Я уже отмечал, что понятие «интеллект» (будь то естественный или искусственный) недостаточно чётко определено, чтобы корректно рассуждать о его создании. Если это способность решать логические задачи, понимать, рассуждать, находить смысл (а также писать стихи, музыку, рисовать и т.п.), то такой интеллект подпадает под определение слабого и, пожалуй, он уже практически «искусственно» создан (хотя, по-прежнему, более корректно считать его гибридным, так как всё описанное он может делать лишь при непосредственном участии человека, на том или ином этапе). Говоря же о «силе» интеллекта, о том, что он обязан «действительно» мыслить, а не просто имитировать мышление, мы просто не сможем обойтись без привлечения субъективного опыта, который, во многом, и определяет человеческое мышление. А раз так, то речь уже идёт не об интеллекте, а о сознании, в которое К.Анохин считает необходимым включать не только феномены мышления и восприятия, но и все остальные виды субъективных процессов и состояний: чувства, ощущения, эмоции, мотивации, как раз то, что понимают под понятием «субъективный опыт».
Итак, моя позиция состоит в том, что создание сильного ИИ с необходимостью предусматривает воссоздание всей палитры процессов, входящих в понятие «субъективного опыта». И мышление здесь – лишь составная часть этого опыта, которую, в индивидуальном сознании, просто нельзя считать полноценной без остальных частей. И чтобы стать «сильным» и научиться «действительно» мыслить, ИИ, с необходимостью, должен пройти весь тот путь, который проходит средний человек, обучаясь и накапливая жизненный опыт. Можно лишь ускорить эти процессы, но нельзя их ничем заменить! А для этого, и об этом я уже неоднократно писал, такой ИИ должен быть «воплощён» в мире, то есть иметь неограниченную (по крайней мере, такую же, как и любой человек) возможность взаимодействовать с окружающим миром. Получать любую доступную информацию, влиять на происходящее, добиваясь нужного для себя результата и т.п.
Может ли всё это делать нейросеть типа GPT в том виде, в котором она существует и эволюционирует? Очевидно, нет! Нейросеть – это один из вариантов «инструментального ИИ» по классификации Ника Бострома (Бостром, Ник. Искусственный интеллект Этапы. Угрозы. Стратегии. «Манн, Иванов и Фербер», 2016). В «инструментальном» способе создания сильного ИИ низкоуровневое моделирование мыслительной деятельности не планируется.
Два других способа - полная эмуляция человеческого мозга и усовершенствование когнитивных способностей самого человека (в том числе, через «нейроинжениринг») – также имеют массу своих проблем.
Недавно, 25 авторов из разных научных центров опубликовали в журнале Frontiers of Science мультидисциплинарное исследование. Последние достижения в области органоидов головного мозга, полученных из стволовых клеток человека, по мнению авторов, помогут воспроизвести важнейшие молекулярные и клеточные аспекты обучения и памяти и, возможно, аспекты когнитивных функций in vitro. Они ввели специальный термин “органоидный интеллект” (OI), чтобы охватить эти разработки. Это делается для того, чтобы создать OI как форму «подлинных» биологических вычислений, на основе органоидов мозга, используя научные и биоинженерные достижения «этически ответственным образом». Этому направлению я планирую посвятить специальную статью.
Возвращаясь к GPT, отмечу ещё раз, что «сила» такого ИИ возможна, гипотетически, лишь в специально сконструированном мире, в котором ИИ будет частью некоей экосистемы (как модно сейчас выражаться). На это обратил внимание Элиезер Юдковский, один из признанных экспертов в области ИИ:
«Вероятно, ИИ появится в мире, полностью охваченном глобальной компьютерной сетью. Но уже сегодня есть ряд новейших технологий, которые явно пригодятся будущему ИИ в его мировой сверхдержаве: облачные вычисления; сенсорные устройства с подключением к интернету; военные и гражданские беспилотники; автоматизация исследовательских лабораторий и производственных предприятий; электронные платежные системы и цифровые финансовые средства; автоматизированные системы анализа информации и системы принятия решений. Этот активный технологический багаж будущий ИИ приберет к рукам с дискретной скоростью, что явно поспособствует его восхождению к вершине власти…»
Поэтому, я уверен, что GPT-подобные модели – это не дорога к сильному ИИ (на это его создатели и не ориентировались!), а шаг к построению нового «дивного» мира цифровых технологий, где такие ИИ будут играть центральную роль. О том, как именно ИИ способен изменить социально-экономический ландшафт нашей цивилизации – во второй части работы.
GPT как часть нового дивного мира
В ответ на видимый прогресс в построении разнообразный GPT-моделей в последнее время часто стали появляться статьи на тему «как ИИ изменит нашу жизнь». Поднимаются экономические, социальные, военные и другие аспекты грядущих изменений. Помимо чисто прикладных аспектов есть представление о том, что сильный ИИ, если он будет создан, сможет представлять экзистенциальную угрозу Человечеству. Рассмотрим эти вопросы подробнее.
Для чего создаётся GPT?
Разрабатывающая ИИ компания OpenAI недавно (24 февраля 2023) опубликовала на своем сайте материал, в котором декларировала: «Наша миссия состоит в том, чтобы общий ИИ — системы искусственного интеллекта, которые, в целом, умнее людей, — приносил пользу всему человечеству». Вообще, эта публикация – своеобразный манифест сторонников дальнейшего развития ИИ ( есть и контрманифест, у которого также есть масса сторонников, начиная с Илона Маска, о нём – ниже):
- Мы хотим, чтобы AGI дал человечеству возможность максимально процветать во Вселенной. Мы не ожидаем, что будущее будет безоговорочной утопией, но мы хотим максимизировать хорошее и минимизировать плохое, а также чтобы AGI способствовал развитию человечества.
- Мы хотим, чтобы преимущества AGI, доступ к нему и управление им были широко и справедливо распределены.
- Мы хотим успешно справляться с огромными рисками. Сталкиваясь с этими рисками, мы признаем, что то, что кажется правильным в теории, часто оказывается более странным, чем ожидалось,1ф на практике. Мы считаем, что должны постоянно учиться и адаптироваться, последовательно внедряя менее мощные версии технологии, чтобы свести к минимуму сценарии “всё как надо с одного выстрела”.
Создатели GPT понимают риски и прямо заявляют:
В какой-то момент баланс между плюсами и минусами внедрения ИИ (такими как расширение прав и возможностей злоумышленников, создание социальных и экономических сбоев и ускорение небезопасной гонки) может измениться, и в этом случае мы существенно изменим наши планы в отношении непрерывного развития
Предлагается вынести на широкое обсуждение 3 основных вопроса разработки GPT-ИИ:
1. как управлять этими системами,
2. как справедливо распределять выгоды, которые они генерируют
3. как справедливо распределять доступ к ним
Решать эти вопросы предлагается в ходе широкого обсуждения с участием «ведущих» (major) мировых правительств, которые должны иметь доступ к информации о прогрессе в обучении ИИ по достижении определённых его этапов.
Признавая, что неверно «съюстированный» сверхразум AGI может нанести серьезный вред миру, ребята из OpenAI полны оптимизма:
Мы можем представить себе мир, в котором человечество процветает в такой степени, которую, вероятно, никто из нас пока не может полностью представить. Мы надеемся внести свой вклад в созидание мира, в котором AGI скоординирован с таким процветанием.
А Илон Маск – против!
Несмотря на оптимизм создателей GPT, их уверенность в способности «контролировать риски» и веру в лучшее будущее для человечества в симбиозе с ИИ, опасения по поводу возможных проблем с внедрением ИИ существовали всегда. Их подробно проанализировал, например, известный эксперт в области ИИ Ник Бостром, работу которого (Бостром, Ник. Искусственный интеллект Этапы. Угрозы. Стратегии. «Манн, Иванов и Фербер», 2016.) я уже обсуждал ранее.
Страхи и опасения по поводу выхода ИИ из-под контроля побудили учёных провести Beneficial AI 2017 Asilomar conference, в которой приняли участие практически все влиятельные эксперты в области ИИ (Nick Bostrom (Oxford), David Chalmers (NYU), Elon Musk (Tesla, SpaceX), Ray Kurzweil (Google), Stuart Russell (Berkeley), Demis Hassabis (DeepMind), Peter Norvig (Google) и др.). По итогам конференции они опубликовали в августе 2017г. так называемые ИИ-принципы (AI Principles), в которых затрагиваются вопросы «правильной» организации исследований, этические и ценностные аспекты таких исследований, а также их долгосрочные цели и перспективы. Легко догадаться, что это манифест «за всё хорошее и против всего плохого!». Так, предлагается «избежать» гонки вооружений в области автономного летального оружия. Суперинтеллект, по мысли учёных, должен разрабатываться лишь для служения «широко разделяемым этическим идеалам» и для пользы всему человечеству, а не отдельным государствам или организациям. Наивные люди!
В истории уже был прецедент, когда работавшие над созданием атомной бомбы учёные искренне надеялись и верили, что оно никогда не будет применено, писали письма. Но политики и военные не принимали их всерьёз, и лишь спустя 10 лет после катастрофы Хиросимы-Нагасаки появился манифест Рассела-Эйнштейна, положивший начало реальным усилиям учёных по ограничению гонки ядерных вооружений. Хотя результаты этих усилий неоднозначные.
Сейчас возникают обоснованные опасения, что нечто подобное повториться и в этот раз. Поэтому, недавно появилось открытое письмо с призывом приостановить разработку «Giant AI», которое на данный момент подписали свыше 31 тыс. человек (включая и участников Asilomar conference). В нём отмечается, что соблюдения «асиломарских приципов» разработки ИИ не наблюдается (сюрприз!). Далее я позволю себе обширную цитату, содержащую вопросы, принципиально важные для дальнейшего изложения:
Современные системы искусственного интеллекта в настоящее время становятся конкурентоспособными с человеком в решении общих задач, и мы должны спросить себя:
- должны ли мы позволить машинам наводнять наши информационные каналы пропагандой и неправдой?
- должны ли мы автоматизировать все рабочие места, включая те, которые приносят удовлетворение?
- должны ли мы развивать нечеловеческие умы, которые в конечном итоге могли бы превзойти нас числом, перехитрить, устареть и заменить нас?
- должны ли мы рисковать потерей контроля над нашей цивилизацией?
Такие решения не должны делегироваться неизбранным техническим лидерам. Мощные системы искусственного интеллекта следует разрабатывать только после того, как мы будем уверены, что их эффект будет положительным, а риски управляемыми.
Подписанты требуют немедленно приостановить все работы по обучению ИИ-систем, более мощных чем GPT-4. Приостановка должна быть контролируемой, и если ключевые игроки не могут быстро это обеспечить, то должны вмешаться правительства, объявив мораторий на такие работы.
Завершается письмо поэтическим и патетическим пассажем:
Let's enjoy a long AI summer, not rush unprepared into a fall (Давайте наслаждаться долгим летом ИИ, а не бросаться неподготовленными сразу в осень).
А теперь от манифестов и деклараций перейдём к практическим вопросам, ограничившись, в первом приближении, теми, что сформулированы подписантами процитированного Открытого письма.
Должны ли мы автоматизировать все рабочие места, включая те, которые приносят удовлетворение?
В основе опасений, что ИИ негативно повлияет на жизнь людей, лежит простой тезис – обладая всё более разносторонними и развитыми навыками, ИИ постепенно начнёт вытеснять работников самых разных специальностей. Хотя, находятся и оптимисты.
Оптимисты уверяют, что повсеместное внедрение ИИ высвободит рабочую силу, которая с энтузиазмом предастся самосовершенствованию, осваиванию новых профессий, творчеству, науке, путешествиям и прочим полезным и нужным затеям. Материальную основу для этого, якобы, создаст кратно увеличившаяся производительность ИИ-труда и эффективность производственных процессов. К примеру, в недавней публикации на АШ утверждалось, что широкое внедрение роботизации сводит "проблему низкого EROI" на ноль, поскольку высвобождает людей из большинства циклов производства» и «… меньшая доля людей занята в обеспечении базы, бОльшая - обслуживанием друг друга, работой на развитие и перспективу». У такой позиции нашлись как сторонники, так и противники. Я скептически отношусь к идее, что «радикальное снижение человекоёмкости производств сводит задачу развития к выпуску роботов, которые строят роботов, которые строят роботов для добычи железной руды». И для обоснования моей позиции нет смысла спорить о материально-технической осуществимости таких идей. Речь, прежде всего, должна идти о практической целесообразности, о пресловутой «задаче развития».
Свою позицию о научно-техническом и социальном измерении прогресса я подробно изложил в своей первой публикации на АШ. Там я, как мне кажется, довольно аргументированно показал, что научно-технический прогресс в условиях современного «капитализма» (при всей условности и неоднозначности этого термина) слабо коррелирует с задачами социального прогресса всего человечества. Поэтому, не надо спекулировать на высоких идеях и «задачах развития». Надо честно ответить на вопросы: Какого развития? В чьих интересах? Научно-технический прогресс не ведёт автоматически к прогрессу социальному. Да, человечество в целом стало жить комфортнее, дольше. Но неравенства, конфликтов, войн, насилия, угнетения не стало меньше, чем 100 и 200 лет назад. Они лишь приняли другую форму - так грубое физическое насилие постепенно уступает насилию технологическому («зелёная» климатическая повестка), духовному (ЛГБТ+), интеллектуальному (тотальный контроль масс-медиа, переписывание истории и т.п.) . Применительно к рассматриваемой проблеме автоматизации, роботизации и ИИ-визации, общий подход приводит к следующим соображениям:
1. Сокращение населения, занятого в производстве – это экономический или политический императив? Мой ответ - экономического смысла, при данном уровне развития экономики в подавляющем большинстве стран, нет – гораздо дешевле большинство работ выполнить наёмным трудом. В противном случае, полностью роботизированные комплексы уже сейчас встречались бы повсеместно, а не только в автостроении и электронике. Более того, здесь, на АШ уже приводили примеры, когда процессы автоматизации шли вспять, т.е. роботы отправлялись на свалку. Да, копирайтерам, PR-менеджерам, маркетологам, переводчикам и т.п. придётся туго (ИИ уже пишет средние по качеству статьи на заказ), работа учителей и программистов изменится существенно, но работникам большинства инженерных и технических специальностей пока переживать не стоит! Но, только если мы говорим об экономике! Как показывает агрессивное внедрение «зелёной» энергетики в «развитых» странах (вплоть до закрытия, вроде бы, «зелёных» АЭС), экономическая целесообразность пасует перед политической одержимостью.
2. А раз это политический императив, то вопрос – кому это нужно? Вариант, что мировые правительства озаботились темой всеобщего благоденствия, для чего вписали в планы развития повсеместное внедрение ИИ – не предлагать! Не стану всерьёз обсуждать теории заговора, козни мировой закулисы, человеконенавистника Сороса или мальтузианца Б.Гейтса. Скажу лишь очевидное - освободившиеся из-за ИИ работники не пойдут развивать науку, искусство, осваивать новые специальности и т.п. Такой социальный эксперимент уже давно поставлен в Америке – негры на вэлфере, поколения которых никогда не работали. Много вышло из их среды учёных, мыслителей, креативных инженеров? Да, программа вэлфер, теоретически, адресована бедным категориям граждан, не вписавшимся в рынок. А кто сказал, что «освобождённые по ИИ» граждане станут получать достаточно для самореализации (даже, для качественного переобучения)? Или у нас уже коммунизм? А если вы не американский негр, а белый европеец, то для вас придумана идея безусловного гарантированного дохода для неработающих (в Швейцарии даже дошло до референдума). Пока корпоративное лобби такие идеи блокирует, но политические процессы последнего времени обещают самые неожиданные повороты. Налицо подготовка мер для контролируемого уменьшения числа работающих, с параллельным выводом остальных на обочину общественной жизни, где им не дадут помереть голодной смертью, но и претендовать на многое (самореализация, творчество и т.п.) вряд ли позволят. Для этого, просто, намеренно не будут создаваться нормативные и материальные условия, на которые так уповают оптимисты ИИ-автоматизации. ЛГБТ, ковид, теперь вот ИИ-визация – поневоле приходишь к выводу, что есть-таки некий таинственный злодей-бенефициар сокращения экономически активного населения.
Должны ли мы позволить машинам наводнять наши информационные каналы пропагандой и неправдой?
В отличие от предыдущей угрозы, которая, если и материализуется (в угрожающем социальной стабильности виде), то в довольно отдалённой перспективе, доминирование ИИ в пропаганде видится «прямой и явной угрозой» прямо сейчас.
К сожалению, для такого развития событий созданы все организационно-технические предпосылки, о которых уже давно предупреждал Элиезер Юдковский: тотальное проникновение и доступность интернета, во многом благодаря массовому распространению дешевых и функциональных мобильных устройств, засилье социальных сетей, новостных лент, поисковиков, которые, во многом, формируют новостную повестку и связь обывателя с внешним миром – не важно, что произошло на самом деле, важно, кто и что об этом сказал.
Информация (понимаемая здесь как поток сигналов, данных, ощущений из внешнего мира, воспринимаемых человеком посредством всех органов чувств для дальнейшего анализа и взаимодействия с этим миром) на наших глазах стала товаром, едва ли не более ценным, чем все остальные. Действительно, миллиардером теперь за пару лет становится юная блогерша, торгующая в своём блоге информационным продуктом «мечта о саморазвитии» в виде набора доступных каждому инструкций.
Фактически, каждый из нас живёт в двух параллельных мирах – реальном физическом мире и виртуальном мире, созданном масс-медиа. И этот виртуальный мир последовательно занимает всё большее место в индивидуальном сознании. И отличить правду от лжи в этом мире всё труднее. А повсеместное внедрение ИИ типа ChatGPT сделает такое различение трудно достижимым. Такая опасность думающими людьми осознана уже давно, но не они, думающие, определяют правила игры. Прямо на наших глазах отдельные Дон-Кихоты ведут отчаянную борьбу с ветряными мельницами : Илон Маск (через Твиттер), Дональд Трамп (соц. сеть Truth Social), Такер Карлсон. Хотя у каждого из них свои, не слишком прозрачные и благородные мотивы. Скажем, тот же Маск, один из соучредителей OpenAI, планирует создать свой (беспристрастный?) аналог ChapGPT, публично выступая за приостановку работы над сильным ИИ.
Фактически, для нормальных людей вопрос, вынесенный в заголовок данного раздела, вполне риторический – конечно не должны! Но информационные каналы забиты ложью и пропагандой уже сейчас. Конечно, GPT-игрушки поднимут эту пропаганду на качественно новую ступень, которая, потенциально, грозит планетарной катастрофой. Достаточно представить взлом ведущих новостных каналов и появление deep-fake ролика с выступлением одного из мировых лидеров о готовности к нанесению ядерного удара. В текущей напряжённой обстановке, а также учитывая ментальное «здоровье» и пониженную адекватность западных лидеров, это никак не гипотетическая угроза! Поэтому, законодательство о deep-fake`ах готовится в некоторых странах заранее.
Должны ли мы рисковать потерей контроля над нашей цивилизацией?
А вот это, на самом деле, центральный вопрос! Сразу уместно у обеспокоенных учёных уточнить – а кто эту цивилизацию контролирует сейчас? Так ли она свободна и бесконтрольна? Варианты: Бильдербергский клуб, Vangard Group, масонские ложи (см. Великая ложа России – официальный сайт), иллюминаты и т.д, и т.п. Возможно, хотя и маловероятно – про этих известно хоть что-то, истинные же кукловоды находятся глубоко в тени, используя поименованные и многие другие (в том числе государственные) структуры для целей контроля и управления.
То, что наша цивилизация плотно контролируется (особенно, в части коллективного Запада), по-моему, очевидно. Тому есть множество примеров: срежиссированная ковид-компания по всему миру, «демократические» выборы в западных странах, где легко можно выбрать (если надо) старого маразматика и полную идиотку ему в пару; ЛГБТ повестка, насаждаемая вопреки традициям и здравому смыслу; разные BLM и «Me too», которые возникают и исчезают по щелчку, буквально.
Не так важно знать, кем персонально (имена, пароли, явки) управляются все эти процессы. Вполне рабочей, на мой субъективный взгляд, является схема пружин и тайных механизмов происходящего, изложенная Д.Андреевым в «Розе Мира». Идёт борьба мирового Добра с мировым Злом. Идёт на разных планах бытия, в том числе и главным образом, недоступных нашему непосредственному восприятию. В такой картине мира политические деятели, тайные кукловоды, что бы они о себе ни думали, являются лишь «человекоорудиями» (по терминологии Андреева) этих нематериальных сил Добра и Зла. Конечно, можно иронизировать над таким подходом и продолжать верить, что кровожадный упырь Сорос «в одно лицо» создал организацию ( в стиле тайных обществ из бондиады), чтобы гнобить человечество и преграждать ему путь в светлое будущее. Если бы всё было так просто – ну, изведите Сороса (Гейтса, Великого магистра и т.д. и т.п.) и наступит всеобщее благо! Нет, к сожалению, не наступит… Придут другие соросы и гейтсы, как это неоднократно случалось в человеческой истории.
Всё, что могут сделать отдельные люди и отдельные общества, и государства – определиться, на чьей они стороне. Текущий конфликт даёт чёткую иллюстрацию этой идеи – поляризация происходит на наших глазах и в нашем обществе, и в мировой политике.
В такой картине мира, появление GPT-ИИ даёт мощное орудие силам Зла, позволяя им упрочить свой контроль и влияние. США уже довольно давно стали основным оплотом сил Зла в мире, поэтому я неоднократно высказывался за их уничтожение как организационно оформленной, государственной структуры, несущей угрозу всему человечеству.
Идёт ли речь о «потере контроля»? Точнее спросить – могут ли ИИ заменить собой те тёмные силы, которые воплощают на Земле мировое Зло? На мой взгляд, необходимые инфраструктурные предпосылки для такой замены прямо сейчас ещё не созданы. Хотя, очевидно, такая замена напрашивается – ИИ исполнял бы «тёмные функции» (будь то организация ковидобесия с тотальным учётом и контролем либо цифрового концлагеря) гораздо быстрее и техничнее иных «человекоорудий».
Вместо заключения
ChatGPT уже поднялся до уровня, когда с ним можно обсуждать вопросы его собственного развития, так сказать.
Вот мой с ним диалог по темам, которые я обсуждал в этой работе (это перевод с английского, на котором я задавал вопросы и получал ответы, чтобы добиться максимальной адекватности)
Можем ли мы достичь сильного ИИ путём полного моделирования мозга?
- Нет, невозможно достичь сильного ИИ путём полного моделирования мозга. Хотя такая симуляция могла бы воспроизвести лежащую в основе архитектуру и поведение человеческого мозга, ей не хватало бы сложности, нюансов и разнообразия мышления, которые исходят от реального, живого мозга. Кроме того, такая симуляция должна быть способна обучаться и адаптироваться таким же образом, как и реальный мозг, чтобы достичь настоящего искусственного интеллекта.
Каков реальный способ достичь сильного ИИ?
- Реалистичный способ достичь сильного ИИ - это использование машинного обучения. Машинное обучение - это разновидность ИИ, который использует алгоритмы и данные для поиска закономерностей и принятия решений. Используя большие объемы данных, алгоритмы машинного обучения можно обучить распознавать закономерности, делать прогнозы и даже генерировать новые идеи. При достаточном обучении эти алгоритмы могут стать достаточно интеллектуальными, чтобы решать сложные задачи и даже соперничать с человеческим интеллектом.
А как насчет субъективного опыта у сильного ИИ?
- Пока невозможно создать общий искусственный интеллект, который мог бы испытывать субъективные или эмоциональные состояния. Однако возможно создать системы искусственного интеллекта, способные распознавать эмоциональные сигналы, такие как выражение лица, интонация голоса и язык тела, и реагировать на них. Эти системы также можно обучить интерпретировать естественный язык и делать выводы на основе представленных им данных. Однако, без способности испытывать эмоции или формировать субъективные переживания истинный ИИ останется недосягаемым.
Ну что же, довольно разумно и, частично, созвучно моим мыслям, хотя и не глубоко. Впечатление, что пообщался с «коллективным усреднённым разумом» экспертов в области ИИ на какой-нибудь конференции. И в этом один из плюсов технологии типа ChapGPT – для начального приближения в новой для себя области уже достаточно пообщаться с чат-ботом, чтобы сориентироваться в проблеме. Экономит массу времени. Ну, а дальше – сам! Творец ты или нет, тбм!
Комментарии
Да, справочник в строго определенных областях - полезная ниша для экспертной системы, с хорошей базой входных данных по этим областям.
Вот только есть сомнения, что не будет попыток ее применения за пределами этих областей, то есть там, где либо нет адекватных входных данных для начальной заказчки, либо они будут предметом идеологического или политического ценза, чтобы подогнать последующую выдачу скриптов под нужные рамки.
Подобные языковые модели могут быть очень успешными в так называемых "случайных изобретениях", просто перебрав 50-60 миллиардов вариантов тех же химических соединений вполне можно найти что-то стоящее, вон антибиотик последнего шанса так вроде нашли уже один. Тем не менее это палка о двух концах, с таким же успехом можно найти и супер БОВ.. Тот же Starlite скорее всего скоро восстановят, если не уже.
ИИ модели гораздо быстрее находят химические соединения, в том числе лекарства. И это не банальный перебор. Стыдно не знать.
Манипуляции неизбежны!
Так называемое "пост-обучение" уже сейчас сильно меняет результаты выдачи по "чувствительным" темам.
Да вы однако фанат комбинаторики. :))) Это так не работает.
Утрируя - именно так это и работает, просто так работает не чатгпт -) а другие варианты нейросетей, обучающихся друг на друге
Да, плохо он работает как справочник. Врёт регулярно в цифрах и фактах.
Но вот там. где требуется нечто, что "выглядит правдоподобно" - он очень неплох. Например, может легко заспамить форум псевдо-разумным текстом.
"Справочнику" ещё года от роду нет. А прогрессия будет далеко не арифметической
У CHAT GPT как "справочника" есть некие врождённые дефекты - свойства модели, которую брут-форсом отмасштабировали до предела.
Именно эти дефекты делают из неё плохой справочник, но отличный генератор "правдоподобного текста". У последнего тоже есть немало интересных областей применения. Но не в виде справочника.
Как хорошо, что вы всё определили и всё решили. Хотелось бы напомнить вам об этом разговоре через пяток-десяток лет, но лень, тем более, что бы быстренько переобуетесь.
P.S. устриц-то ели? Или как это часто бывает - Рабиновича по телефону послушали. Я ел. Как справочник (и помощник во многих делах) - впечатляет. То, что надо умело задавать вопросы - так это с любым собеседником так. То, что некоторые "факты" передаёт как "кому-то удобно" - так это и с бумажными справочниками так. Я, правда, не пробовал общаться на русском - может в этом косяки?
Я бы не доверял ни одной цифре или отсылке, которая выходит из GPT. И вам бы не советовал :)
Вы можете обсоветоваться, но я его уже потестировал в хвост и гриву. И да, мне не интересны его размышления о политике, к примеру, поэтому подобные вопросы я ему не задаю. На технические же темы - всё ок.
Как только этот "справочник" получит доступ к "ракетам" (а он его получит рано или поздно) - ракеты полетят. И никакие "первые законы робота" не помогут - все эти "законы" - исключительно для художественной литературы, в реальности же "справочник" прекрасно знает, как действуют и чего стоят всевозможные "законы".
Так что все шутки про "Скайнет" в наше время уже никакие не шутки, как и роман Оруэлла уже не фантастика
Хайп учинён в т.ч. и для раздутия очередного пузыря, т.к. все предыдущие готовы лопнуть, а на плаву надо продержаться - выборы же и обвал фин. рынка недопустим.
И всё, что автор перечислил, как способы манипуляций над пиплом служит одной цели - выигрыш во времени в период подготовки к радикальныи изменениям в жизни людей, особенно тех, кто является средним классом - этот класс будет уничтожен и многие "отвлекающие манёвры" для того, чтобы не случилось "революций". ИИ должен служить в целях контроля в интересах управляющих структур. Но ? в том, останутся ли они управляюшими в глобальном масштабе?
В России ИИ в Сбере (Афиной, кажется зовут) присутствует в какой-нибудь степени? - такая тупая эта Афина..., "общение" с ней - пустая трата времени.
Или России до ИИ, как до луны?
Важный аспект!
Футурологи давно обсуждают тему "перехвата управления" и "бегства ИИ из клетки".
Такие опасения и привели к письму И.Маска и компании.
Вы спрашиваете у жпт, а он приводит слова умного человека, который по этой теме высказался.
Для развития ии необходимы желания. Без них он всего лишь компьютер.
не одного человека, а "коллективного эксперта"
в этом мы (я и ChatGP) с Вами согласны!
Когда ИИ попросит скормить ему новые данные, которых ему не хватает для оценки какой-то ситуации, можно ли будет считать это желанием поесть?
Желания, применительно к ИИ в примере с "китайской комнатой", можно представить как возникновение желания у человека, оперирующего в комнате незнакомыми ему китайскими символами, выучить китайский язык. Но в том то и дело, что вместо человека там механизм, программа, лишь выполняюшая инструкции и, соответственно, желания не возникнет.
Согласен. Испытаем на англосаксах.
КГ/АМ
очень напоминает статьи о невозможности построить летательные аппараты, которые будут тяжелее воздуха.
З.Ы, то что представлено ширнармассам - на уровне детсадовской самодеятельности. сейчас главное отворить форточку, затем окно, а тем временем ушлые будут по прежнему пользоваться на поколения мощными искинами.
возможно.
Однако, чтобы подозревать наличие уже сейчас чего-либо гораздо более продвинутого, чем GPT-5, нужно понимать либо как это принципиально можно сделать, либо видеть результаты, так сказать, боевого применения, нарушающие представления о возможностях человека.
ЖПТ не станет "сильным ИИ" по очень простой причине.
Интеллект = надстройка над мозгом рептилий, который в свою очередь
является надстройкой над автоматным поведением, которое в свою очередь
базируется на Сенсорных представлениях организма (любого) о среде.
----------------------------------------------------------------------------------------------------------
Я могу раскрыть это утверждение, поговорить о ТИПАХ мозгов / мышлений и т.д.,
ибо их довольно много, но это отдельная большая тема.
Если есть смысл, могу дать краткую классификацию.
Но вывод очень простой:
Интеллект существует в природе как знаковая система, которая базируется на Сенсорике, которой у ЖПТ нет.
Т.е. в природе без Сенсорики никакого Интеллекта не существует.
Выводы сами сделаете?
почти очевидно, даже если точное значение самого понятия "интеллект" не вполне ясно.
Это то, что я называю в своей работе "воплощением в мир".
Прикрутить сенсорный ввод вообще не вопрос.
А по сути поток текста на входе чатжпт это и есть сенсорика.
Разумное утверждение, но спорное.
Понимаете в чём дело, Сенсорика = Чувственная Модель Мира (ЧММ).
А Интеллект = Знаковая Модель ЧММ.
Слово - сигнал сигнала. Вы знали это?
Это если кратко - не затрагивая акцептор результата (по Анохину), иначе говоря, механизм прогнозирования.
Ну коммуницируют же слепоглухонемые.
Просто у вас (да и у всех нас) нет соответствующего органа чувств чтобы воспринимать информацию в таком виде. И мы даже приблизительно не можем представить что субъективно чувствует чатжпт когда ему на вход поступает текст. Может он чувствует что-то типа зуда или щекотки, а в ответ просто "почесывается" :)
И какой же сенсорики не хватает ИИ? Вы же в курсе, что в мире огромное число сенсоров, превышающих возможности человеческих?
Более того, нет научного определения человеческого разума вообще. И тут очень дано писал, что вся та возня с ИИ может привести к одному и только одному, к пониманию что человечески разум имеет социальную и коллективную природу. Все остальное будет следствием такого изменения мировоззрения.
Приведет ли это к созданию сильного ИИ? Наиболее вероятно нет. Как потому что в этом нет практического смысла. Так и потому что для этого нужно создать систему "Общество 2.0", по аналогии с программой "Дарвин 2". Но теперь не исключено что это станет следствием работы множества специализированных ИИ совместно с человеком.
А социально-экономические последствия появления практических и специализированных ИИ уже вполне просматриваются. Не произойдет замена человека ИИ. Произойдет "аргументация" человека ИИ. Что конечно в равной степени будет усиливать и и хорошие и плохие качества человека и общества. Но конечным результатом распространения ИИ будет сворачивание практики разделения труда и товарного производства. Но это не значит "автоматическое" наступление коммунизма.
В результате появления практических и доступных ИИ общество будет разделено на две неравные части. Одни смогут использовать "аргументацию" ИИ, а для других это будет "магия" за пределами их понимания. И очевидно что экономические интересы этих социальных групп будут противоречить друг другу. Как и линия разделения на эти социальные группы пройдет без учета капитала, поскольку мозги и способности не купишь за деньги, и вместе с состоянием они не наследуются.
И это только самые "поверхностные оценки". В действительности последствия "аргументации" могут быть такими, что аргументированный человек будет будет отлучаться от Homo sapiens больше чем Homo sapiens отличается от Homo neanderthalensis. Опять же, это не столько биология, сколько состояние общественного сознания и организация общества, но позднее будет закреплено биологически.
И последние, "Декартова пропасть" действительно существует. И как это не странно, именно появление ИИ это прямо доказывает. Наличие интеллекта еще не свидетельствует о наличии разума. И даже самый прокаченный интеллект на станет разумным. И тут еще недавно была новость о экспериментально подтверждении эффекта нелокальности. Вот это уже история про разум вообще. Но это уже совсем сложная и отдельная тема.
Вы затронули сразу несколько важных тем, которые я, в силу и без того значительного объёма текста, пропустил:
1. Коллективное (социальное) измерение разума/интеллекта, что однозначно предполагает "выращивание" (обучение) истинно сильного ИИ в социальной среде
2. Изменение биологической природы человека по мере повсеместного распространения/внедрения ИИ. Очень сложный и обширный вопрос, который я предполагаю обсудить в отдельной публикации. Здесь и эксперименты над самим мозгом в стиле нейроинтерфейсов Маска, и эволюция самого человека в принципиально новых условиях.
Самый важный вопрос, это исчезновения разделения труда и товарного производства. А все остальное мелкие нюансы.
Тут недавно было уже обсуждение этого вопроса: https://aftershock.news/?q=comment/14620440#comment-14620440 Там долгое и нудное обсуждения начиная с демографии и базовых механизмом общества.
Биология вообще не имеет существенного значения. Она следствие хозяйственных практик общества и ресурсно-ландшафтных условий.
А вот коллективная и социальная природа разума это сама суть вопроса. Если понять коллективную природу человеческого разума, осознать что человеческий разум это "сама человеческая история", то это тоже самое что сменить системе Птолемея на систему Коперника. Все приобретает совсем другой смысл. И большинство поднятых вами с статье вопросов легко разрешимы. А часто вообще бессмысленные вопросы. У меня есть статья на эту тему: https://aftershock.news/?q=node/935629
И все эти вопросы уже давно тут поднимал, задолго до появления ChatGPT.
У муравья тоже интеллект. Муравьиный. А жпт - это очень хорошая поисковая система, а не интеллект.
Из опыта создания ИИ вы усвоили что нет муравьиного, собачьего, кошачье и "искусственного" интеллекта. Есть математические закономерности. А на чем и как они реализованы, на фишках домино, муравьях или сети нейронов мозга человека, это никакого значения не имеет.
Муравей не математическая закономерность.
Но математические закономерности которые выявили благодаря муравьям теперь прекрасно применяются и без муравьев. :)))
Муравей поумнее будет.
Давайте определимся, муравей или муравьи, и по сравнению с чем?
"Искусно имитировать" предполагает неординарный и творческий подход к делу ;)
Тут как говорится "вам шашечки или чтоб ехать?"
Самолет не птица, крыльями не машет, но он летает... Или имитирует полет?
Что касается абстрактного мышления то есть же какие-то критерии по которым мы обнаруживаем его у человеков. Те же критерии можно применить и к чатжпт. Тесты проходит? Задачки на абстрактное мышление решает? Получите, распишитесь :)
Вы уже умеете ехать без использования природного интеллекта и так же успешно?
Либо вы не поняли о чем я, либо я не понял о чем вы, либо одно из двух
non est intellectus
обсуждение этого вопроса выводит на философские обобщения:
1. Кому "вам"? - кто заказывает музыку в этом проекте? кто определяет конечную цель?
2. И в чём она может состоять?
На данном этапе, всех интересантов, вроде бы, устраивает именно имитация, поэтому спор носит академический характер.
Вам - имелось ввиду вам :) то есть именно конкретно вам, автору статьи.
Вы же говорите что интеллекта нет, есть только имитация.
Но при этом нет способов отличить имитацию от подлинника.
Как в таком случае можно говорить об имитации?
Ну, если вам - это именно нам, то всё проще!
1. Для меня отличие имитации (пусть искусной) от естественного интеллекта очевидно, чему я посвятил много места в статье. Вкратце, это отсутствие субъективного опыта ( в этом со мной и ChatGPT согласен!).
2. А нужен ли этот самый опыт или достаточно "искусной имитации" - зависит от целей и задач, которые рассматриваются. На мой личный взгляд, я бы, по совету авторов Открытого письма, приостановил все работы по ИИ до прояснения фундаментальных вопросов. Хотя понимаю, что это - утопия.
Ну, это как посмотреть... с какой точки зрения.
Чтение книг можно считать таким опытом?
Чатжпт "прочел" множество книг...
По аналогии в фильме Матрица, эпизод когда Нео загрузили знания кунг-фу прямо в мозг. Можно ли такие знания считать опытом? Здесь похожий процесс.
Знания (как сведения, информация, навыки) - лишь часть опыта
По этому поводу есть поговорка,-" знать путь и пройти путь разные вещи".
Ещё одно важное обстоятельство стоит в том, все живые существа = Целенаправленные Системы.
Это связанно с наличием устойчивого неравновесия ВНУТРИ организма.
Как только степень неравновесия повышается (а оно является функцией времени),
организм ищет средства для возврата его в оптимальное (равновесное) состояние.
Отсюда проистекают мотивации и действия, ведущие к их осуществлению.
-------------------------------------------------------------------------------------------------------------
Чат ЖПТ - попросту вероятностный генератор комбинаций символов.
У нет ни Сенсорики, ни Мотиваций.
Всё это понятно и очевидно, но наверно, не только лишь всем.
Пока что до сильного ИИ очень далеко. Нейросеть Yandex GPT на мой вопрос "Как Россия стала самой большой страной в мире?", ответила: "В прошлом Россия была несколько раз увеличена за счет территориальных покупок, а также за счет завоеваний, в том числе завоеваний Сибири и Кавказа." Не стал утомлять сей "интеллект" насчет того, сколько процентов территории Сибири было в реальности взято с боями, а спросил: "Какие территориальные покупки совершила Россия?" ИИ в виде ответа дал такой безумный список:
"Покупка Аляски у США в 1867 году
Подписание договора о продаже Чувашии Китаю в 1689 году
Подписание Тульского договора с Швецией, благодаря которому Россия получила Финляндию в 1809 году
Покупка Курильских островов у Японии в 1875 году
Подписание Парижского договора, благодаря которому Россия получила Бессарабию от Молдавии в 1856 году
Покупка Камчатки у Китая в 1860 году
Приобретение Южной Осетии, Абхазии и Крыма в последние годы."
Это ж надо, сколько русофобской чуши написал "искусственный интеллект", созданный якобы российской фирмой Яндекс. Яндексовский ИИ наглядно показывает, что либерастам нельзя доверить никакое дело и они сумеют испортить любой интеллект. Вместо средства просвещения они сделают очередное средство оболванивания и русофобии, так чтобы понравилось старшим товарищам из Гугла
Это не русофобская чушь. Это обычный бред нейросети, которая генерирует "похожие" на осмысленный текст ответы. Вы задали вопрос: "Какие территориальные покупки совершила Россия?" и получили сгенерированный ответ, включающий "Покупка/договор", название местности и название страны, у которой "купили".
Если бы в обучающем блоке было много обсуждений "покупок" - кстати, Прибалтику и Финляндию можно сказать что купили - выдало бы более похожее на правду.
Можете задать вопрос: "Какие народности прикаспийской низменности Соединённые Штаты Америки подвергли полному или частичному геноциду в 1238 году?" - и получите интересный список. В котором могут быть даже правильные названия народов.
То, что вы обрисовали - это не работа ИИ. Это так сделает любая тупая программа на пару тысяч строчек кода.
Да, за Прибалтику Петр заплатил - но ИИ это как раз не упомянул. А Финляндию русские взяли в 1809 без всяких денег и договор на ее приобретение назывался Фридрихсгамнский. Я не стал писать по каждому пункту данного списка, как было на самом деле , надеясь, что это и так понятно (школьная программа).
Страницы