О возможности и целесообразности создания сильного ИИ

Аватар пользователя Olvik

Нам грозит не пришествие сверхразумных машин,

а появление неполноценно мыслящих человеческих существ

Хьюберт Дрейфус

В настоящем сообщении я сделал краткий обзор истории разработки искусственного интеллекта (ИИ) и привел различные, зачастую противоположные, оценки авторитетных экспертов о возможности достижения сильного ИИ. Меня особенно интересовал круг проблем, главным образом философских, которые предстоит решить на этом пути. Анализ доступной информации позволил мне прийти к выводу о том, что, хотя достижение сильного ИИ теоретически возможно, но сложность задач, которые предстоит решить, а также отсутствие реальной практической заинтересованности у мировых элит, делает достижение именно сильного ИИ крайне маловероятным событием на горизонте планирования в 10-20 лет.

 

 

Материал получился достаточно объёмным. Я не стал разбивать его на части, а постарался убрать под каты специальную информацию и обширные цитаты, которые можно пропустить при общем ознакомлении с темой. Литература, которую я использовал, приведена в конце материала общим списком.

Обсуждая тему ИИ, очень важно договориться о терминах. Иначе легко получить подмену понятий. 

Ранее я уже приводил эти определения, которые сформулировал Tim Urban (The AI Revolution: The Road to Superintelligence ) со ссылкой на авторитетных экспертов:

1. Узкий ИИ - Artificial Narrow Intelligence (ANI):

Это ИИ специализирующийся на конкретной задаче/проблеме. И, зачастую, превосходящий человека в решении этой задачи. Например, шахматная программа обыграла человека, но она умеет только это.  Речь идёт о различного рода экспертных системах, как правило, работающих с большими объёмами данных.

2. Общий ИИ - Artificial General Intelligence (AGI):

Его ещё называют ИИ человеческого уровня (например, Универсальный Человекоподобный Интеллект – УЧИ). Так называют ИИ, который сравнялся с человеком в решении  любых интеллектуальных и творческих задач. Профессор Линда Готтфредсон ( Linda Gottfredson) описывает такой ИИ как “предельно общую ментальную способность, которая, среди прочего, включает умение размышлять, планировать, решать задачи, думать абстрактно, постигать сложные идеи, быстро обучаться, а также учиться на собственном опыте”. УЧИ смог бы делать всё это также легко, как и человек.

3. Супер ИИ Artificial Superintelligence (ASI):

По определению Ника Бострома (Nick Bostrom), эксперта в области ИИ из Оксфорда, это “интеллект, который намного превосходит наилучшие человеческие мозги в практически любой области, включая научное творчество, жизненную мудрость и социальные навыки.”

 

До некоторого времени эти определения меня устраивали. Однако, хотя такого рода определения достаточно распространены, их практическое использование порождает массу вопросов. Более того, эти определения уводят в сторону от понимания сущности сильного ИИ и тех проблем, которые неизбежно возникнут на пути к его достижению.

Обсуждение начну с прояснения терминологической путаницы: слабый - узкий, сильный - общий.

Если между слабым и узким ИИ никто особых различий не делает (это решение, заточенное на специальную задачу), то в отношении сильного-общего ИИ есть эксперты, которые пытаются различать эти понятия (например, Рагнар  Фьёлланд, на недавнюю статью которого «Почему общий ИИ не будет реализован» в Nature я буду далее ссылаться). Дескать, поскольку человеческий интеллект носит общий, универсальный характер (подразумевается, способен решать самые разные задачи), то и  искусственный интеллект, который может то же самое, должен называться общим. А вот интеллект идентичный человеческому должен называться сильным.

В приведённых выше определениях разница между слабым и общим ИИ достаточно условна, и она, скорее, количественная, чем качественная. Системы экспертного уровня уже сейчас способны и «решать задачи», и «быстро обучаться» (в том числе на собственном опыте), и «планировать», и «постигать сложные идеи», а также писать музыку, стихи, рисовать и т.п. И многие конкретные задачи слабые ИИ уже делают «также легко», а порою и гораздо лучше и быстрее, чем человек.

Так что, при таком подходе можно говорить о проблеме объединении различных специализированных (слабых) ИИ в один универсальный. О качественных различиях между слабым и общим ИИ, вроде бы, речь не идёт. Остаётся лишь уточнить, кому и зачем нужен робот-шахматист, который ещё и поёт, рисует, предсказывает погоду и находит собак на фотографиях. Другими словами, задача собрать из разнородных «экспертов» одного «суперэксперта» – это проблема, скорее, целесообразности, чем научного вызова.

Могут возразить (хотя из приведённых выше определений это прямо не следует), что под «общим» понимается ИИ, обладающий таким запасом «интеллекта» (что бы это понятие ни значило), который позволяет ему, при необходимости, самостоятельно осваивать любые новые навыки и профессии, подобно тому как это делает человек. И делать это не хуже человека. Такое уточнение существенно, оно, однако, не снимает всех вопросов.

 А вопросы возникают следующие: должен ли такой УЧИ обладать качествами, на первый взгляд, не связанными напрямую с решением задач, но присущими человеку? Такими как мораль, эмоции, вера, целеполагание, саморазвитие и т.п. Эти, и многие другие, качества являются неотъемлемыми атрибутами человеческого сознания. Нужно ли моделировать и их при создании УЧИ?

 

Приведённое выше определение ИИ, фактически, не различает задачи «научиться делать как человек (или лучше)» и «научиться быть человеком (или лучше)». А разница здесь принципиальна.  Это понимание нашло отражение в формулировке, которую дают в своей знаменитой книге С.Рассел и П.Норвиг: “утверждение, что машины, возможно, способны действовать так, как будто действительно являются интеллектуальными, философы называют гипотезой слабого искусственного интеллекта, а утверждение, что машины действительно мыслят (а не просто имитируют мыслительные процессы), называется гипотезой сильного искусственного интеллекта». При таком подходе осталось определить, как именно люди «действительно мыслят».

Наконец, вряд ли стоит содержательно различать понятия сильного и супер ИИ, так как многие разделяют точку зрения, что путь от сильного к супер ИИ будет очень коротким: сильный ИИ, работая над собственным совершенствованием достаточно быстро разовьёт навыки, которыми мы наделили супер ИИ.

Далее я буду говорить исключительно о так определённом сильном ИИ, игнорируя двусмысленное понятие УЧИ (AGI).

Рассматривать проблему я предлагаю в двух аспектах: теоретическом (можно ли и каким образом создать сильный ИИ в идеальных условиях?) и конкретно-практическом (возможно ли реализовать теоретическую программу на практике?)

ИИ: долгая дорога к силе

Праотцом ИИ смело можно назвать Алана Тьюринга. Многие из вопросов о сильном ИИ, задолго до появления самого понятия, он поставил и рассмотрел в своей статье 1950г. Её можно найти в книге «Может ли машина мыслить?», изданной в 1960 (это русский перевод двух статей, А.Тьюринга и Дж.Неймана 1950 и 1951гг.).

Именно Тьюринг сделал всё для обоснования «функционалистского» подхода к разработке ИИ, то есть ц​елесообразности ставить и решать именно задачу «научиться делать как человек». Суть функционализма выражает известная поговорка – не важно, какого цвета кошка, лишь бы она ловила мышей. Т.е не важно, может ли машина на самом деле по-человечески мыслить, понимать, сознавать, чувствовать и т.п., если она умеет с помощью алгоритмов и программ решать, предсказывать, вычислять, а также имитировать понимание, сознание, чувства и т.п. Приверженцы таких идей (например, тот же Юрген Шмидхубер (Jürgen Schmidhuber)), говорят о возможном и довольно скором достижении так понимаемого  сильного ИИ.

Реализуя такой подход к проблеме, Тьюринг предложил отвечать на вопрос «Может ли машина мыслить?» по результатам некоей «игры в имитацию», которая теперь (в некоторой адаптированной форме) известна как Тест Тьюринга. Он так описал свой подход: «…вопрос «могут ли машины мыслить?» можно заменить вопросом «существуют ли воображаемые цифровые вычислительные машины, которые могли бы хорошо играть в имитацию?».  Сам Тьюринг считал возможным прохождение такого теста с ростом вычислительной мощности машин:

Я уверен, что лет через пятьдесят станет возможным программировать работу машин с емкостью памяти около 109 так, чтобы они могли играть в имитацию настолько успешно, что шансы среднего человека установить присутствие машины через пять минут после того, как он начнет задавать вопросы, не поднимались бы выше 70%. Первоначальный вопрос «могут ли машины мыслить?» я считаю слишком неосмысленным, чтобы он заслуживал рассмотрения.

За 70 лет, прошедших со времени предложенного теста, проходить его (с разным успехом) пытались многократно и к нему накопилась масса вопросов. Большинство экспертов считает, что удача/неудача в прохождении теста не даёт однозначного ответа на поставленный вопрос о способности машины мыслить.

Фактически, предложив тест-имитацию и отказавшись всерьёз обсуждать вопрос о способности машин "действительно" мыслить, Тьюринг определил программу исследований в области ИИ на многие годы вперед. Это программа так называемого «символического ИИ», который предельно упрощённо можно определить как попытку свести любую мыслительную деятельность к следованию набору эвристических правил и алгоритмам, оперирующим, в конечном итоге, символами. Как писали отцы-основатели ИИ Саймон (Simon H.A.) и Ньюэлл (Newel A.): «Физическая символьная система имеет необходимые и достаточ­ные средства для произведения основных интеллектуальных опе­раций».

Сам Тьюринг в своей статье попытался предвосхитить возможные возражения к своему подходу и заранее ответить на них. Он привел целых 9 гипотетических возражений:

 
9 возражений Тьюринга

 

Следует отметить, что не все приведённые возражения интересны и актуальны сейчас. К тому же, Тьюринг оказался гораздо лучшим криптографом, чем полемистом. На мой взгляд, большинство возражений ему не удалось убедительно парировать, обосновав, тем самым, свою позицию. Да он и сам это признавал, написав в свой статье:

«Читатель, вероятно, уже почувствовал, что у меня нет особенно убедительных аргументов позитивного характера в пользу своей собственной точки зрения. Если бы у меня были такие аргументы, я не стал бы так мучиться, разбирая ошибки, содержащиеся в мнениях, противоположных моему собственному»

Тем не менее, три возражения не только не потеряли актуальность, но и, на мой взгляд, принципиально важны для ответа на вопрос о достижимости сильного ИИ. Это – теологическое возражение, возражение с точки зрения сознания и возражение с точки зрения сверхчувственного восприятия, так как они затрагивают саму природу человека, а не только способ организации его мышления. К их рассмотрению я предполагаю вернуться в ходе дальнейшего изложения.

Это время (50-е и 60-е годы прошлого века) сопровождалось бурным интересом к проблеме ИИ, от которого ожидали быстрого прогресса именно в создании ИИ, который сейчас мы именуем сильным ИИ. Вот лишь некоторые авансы, которые выдавались тогда под хорошее финансирование:

1958, Саймон, один из авторов программы GPS (General Problem solver, успешно решавший алгоритмические задачи):

  • Не пройдет и десяти лет, как цифровая вычислительная машина станет чемпионом мира по шахматам, если не будут введены правила, не допускающие ее к соревнованиям.
  • Не пройдет и 10 лет, как вычислительная машина найдет и докажет важную и до сих пор неизвестную математическую теорему и создаст музыку, ценность которой признают критики.
  • Не пройдет и десяти лет, как большинство психологических теорий примет форму программ для вычислительных машин или качественных утверждений о тех или иных характеристиках машинных программ

1965, Саймон

  • В ближайшие двадцать лет машины будут способны делать любую работу, которую сейчас делают люди

1967, Марвин Мински

  • Уже следующее поколение в основном решит проблему создания искусственного интеллекта

1970, Марвин Мински

  • В течение трех-восьми лет мы будем иметь машину, обладающую интеллектом среднего человеческого существа

 

Авансы не оправдались. Началась «зима» искусственного интеллекта. В итоге, правительства США и Британии начали урезать финансирование исследований ИИ для университетов. DARPA, без проблем финансировавшее исследования ИИ в 1960-х, стало требовать от проектов чётких временных рамок и подробного описания предполагаемых результатов. В итоге стало казаться, что ИИ не оправдал ожиданий, и никогда уже не сможет достичь уровня человеческих возможностей. Одной из причин было несоответствие вычислительной мощности машин сложности большинства задач ИИ. Это назвали «проклятием размерности» (вариант – «комбинаторный взрыв»), когда уже для простейших задач с 30 логическими правилами (параметрами алгоритма) полный перебор всех вариантов даже с эвристиками и прочими сокращениями перебора (на «деревьях решений») занимал многие часы и даже годы вычислений. Первая «зима» ИИ продлилась все 1970-е.

Некоторое оживление случилось в начале 80-х, с началом разработки и первыми успехами экспертных систем, работавших с большими объёмами данных и имитировавшими процесс принятия решений людьми. Экспертные системы были призваны заменить специалистов-экспертов при разрешении проблемных ситуаций. Они представляли собой автоматизированные компьютерные системы, реализующие программы на основе набора правил, позволяющих распознавать ситуации и делать простые логические умозаключения. Выводились эти умозаключения из баз знаний, составленных специалистами в соответствующих предметных областях и переведенных на формальный машинный язык.

Успех экспертных систем вдохновил DARPA на увеличение финансирования исследований ИИ, но вскоре агентство урезало большую часть этого финансирования, оставив всего несколько программ. Частные инвесторы старались держаться на почтительном расстоянии от любых начинаний, имевших малейшее отношение к проблеме искусственного интеллекта. Даже в среде ученых и финансировавших их организаций сам этот термин стал нежелательным. Вторая «зима» ИИ продлилась до конца 90-х.

 

В центр общественного внимания ИИ вернулся в 1997 году, когда шахматный компьютер Deep Blue от IBM победил тогдашнего чемпиона мира Гарри Каспарова. У компьютера Deep Blue было достаточно вычислительных мощностей, и он использовал «метод грубой силы», или полный перебор, оценивая 200 млн возможных ходов в секунду и подбирая наилучший. Работа Deep Blue была похожа на работу ИИ, но компьютер не размышлял о стратегиях и не учился игре, как смогут это делать последовавшие за ним системы.

 

Можно считать, что все это время (вплоть до начала 2000-х) исследования велись в парадигме, получившей известность как «добрый старый искусственный интеллект», или сокращенно GOFAI (Good Old Fashioned AI); этот термин в 1985 году предложил Джон Хогланд (John Haugeland). В основе GOFAI лежит утверждение, будто все интеллектуальное поведение может быть представлено с помощью системы, которая формирует логические рассуждения на основании множества фактов и правил, описывающих рассматриваемую проблемную область.

Одними из первых, кто обоснованно сомневался в успехе такого подхода, был философ Хьюберт Дрейфус, который написал ряд влиятельных критических статей против искусственного интеллекта, в том числе с братом Стюартом.

В обстановке всеобщей эйфории, Дрейфус писал, что оптимистичные предсказания апологетов ИИ никогда не сбудутся, и  указал на явные и неявные допущения теории ИИ, раскритиковав их.

 
Дрейфус о допущениях теории ИИ

 

Дрейфус отстаивал феноменологический подход к сознанию, согласно которому, человек обладает пери­ферийным сознанием, позволяющим ему выхватывать из мира сигналы в фоновом режиме. И хотя таких сигналов может быть неопределенно много, человек оказывается защищен от комбинаторного взрыва, когда решение задачи мно­гократно усложняется с каждым следующим шагом доказатель­ства. Далее, человек может различать релевантное и нерелевантное на основе глубо­кого понимания ситуаций, инсайта. Программы же раз­личают важное и неважное согласно правилам, составленным их авторами.

Кроме того, люди чувствительны к контексту и обладают тер­пимостью к неоднозначности. Они могут по­нять двусмысленное предложение, они воспринимают оптические иллюзии (вроде куба Неккера).

Большинство знаний, которые мы применяем в нашей повседневной жизни неявны. Их трудно объяснить и формализовать, тем более в виде алгоритмов. Если, подобно сороконожке из известной притчи, мы станем задумываться перед каждым шагом как правильно поставить ногу, то просто не сможем ходить. По выражению Майкла Полани, «… мы можем знать больше, чем можем сказать».

В 1980-х, после первой зимы ИИ, от «символического» ИИ перешли к моделированию процессов в человеческом мозге. Появились первые искусственный нейронные сети, которые могли обучаться. Адепты ИИ (в частности, Рассел и Норвиг) отмечали, что возражения Дрейфуса касались GOFAI, который соответствует простейшему логическому агенту, и Дрейфус был прав, утверждая, что логические агенты действительно имеют слабое место, поскольку не позволяют решить проблему спецификации. Однако, получившие всё большее распространение новые подхода в разработке систем ИИ, связанные с машинным обучением и нейросетями, вроде бы, открывали дорогу к решению этой и других трудных проблем.

Сам Дрейфус и его брат считали, что принципиально ничего не изменилось, указывая на ограниченность нейронных сетей. Рассел и Норвиг в своей книге вступили в полемику с Дрейфусами и ответили на их замечания:

 
Полемика Рассела и Норвига с Дрейфусами о нейронных сетях

 

Из приведённой полемики можно сделать вывод о том, что критики ИИ указывают на всё новые особенности взаимодействия нашего сознания с миром, извлечения и обработки знаний, построения умозаключений, обучения новым навыкам и т.п., которые неподвластны существующим моделям ИИ. И всякий раз адепты ИИ указывают на возможные способы (иногда чисто гипотетические) обойти эти ограничения, улучшая архитектуру ИИ.

У подхода Дрейфуса есть и сторонники. Так, на правоте Дрейфуса настаивает Рагнар Фьёлланд, на недавнюю статью которого «Почему общий ИИ не будет реализован» в Nature я буду далее ссылаться.

 

Создание сильного ИИ – теоретические аспекты

Если кратко, то всего есть два пути развития ИИ: первый – создать идеальный инструмент для расширения возможностей человека в решении стоящих перед ним проблем, в освоении (покорении?) земных и внеземных пределов, второй – сделать upgrade самого человека, создав некоторого суперчеловека, который наследует Землю и сам будет определять цели и смыслы.

Для реализации этой программы существуют три основных стратегии, о которых, например, подробно пишет в своей книге эксперт в области ИИ, футуролог Ник Бостром.

1.Инструментальный ИИ

Подход, использующий функциональность мозга в качестве отправной точки, но разработка низкоуровневого моделирования не планируется.

 
Инструментальный ИИ подробно

2.Полная эмуляция головного мозга человека

В процессе полномасштабного имитационного моделирования головного мозга, который называется «полная эмуляция мозга» или «загрузка разума», искусственный интеллект создается путем сканирования и точного воспроизведения вычислительной структуры биологического мозга. Таким образом, приходится всецело черпать вдохновение у природы.

 
Эмуляция головного мозга подробно

3.Усовершенствование когнитивных способностей самого человека

Третий путь создания интеллекта, превосходящего человеческий, это улучшение функционирования биологического мозга, повышение когнитивных способностей человека.

 
Усовершенствование когнитивных способностей подробно

Следует обратить, что в пп.2-3, в силу выбранного подхода, речь идёт о создании улучшенной копии человека со всеми его атрибутами (мышление, сознание, чувства, эмоции) либо путём копирования в лаборатории результата, который получился у природы в ходе длительной эволюции, либо путём евгеники, т.е. апгрейда этого самого результата (человека).

В то время как в п.1 речь идёт, скорее, об имитации (в стиле Тьюринга) «в железе» функциональных возможностей человека и последующем их улучшении. Будет ли получившийся киборг ещё и чувствовать, обладать сознанием, вопрос при таком подходе не принципиальный и не сильно волнует исследователей. Тот же Шмидхубер считает, что всё это можно запрограммировать в виде дополнительного бонуса.

Итоговый результат, который мы получим в каждом из подходов достаточно различен: если в случае 3 мы имеем дело с хорошо известной нам телесной оболочкой с понятным способом взаимодействия с миром, то какое физическое воплощение получит ИИ в случаях 1 и 2 мало кто может себе представить.

И здесь мы вновь и вновь вынуждены вернуться к началу – может ли ИИ, спроектированный как имитация, на определённом этапе своего усложнения вдруг, невзначай, обзавестись сознанием. Либо это сознание может лишь достаться ему по наследству, как, например, в модели ИИ, построенной как полная эмуляция человеческого мозга. И чем «имитационный» ИИ отличается от «сознательного»? Должен ли сильный (и сверхразумный) ИИ обязательно по-настоящему (т.е. по-человечески) думать, понимать, чувствовать, сознавать либо достаточно обладать качественной имитацией, так чтобы разница в поведении не была заметна экспертам (как в тесте Тьюринга)?

Нескончаемые споры об этом ведутся долгое время. Ставятся многочисленный мысленные эксперименты. Пожалуй, самый известный из них – «китайская комната» Джона Сёрла опубликованный в 1980г. Этот эксперимент хорошо известен, и я не буду его подробно описывать. Тема, поднятая Сёрлом настолько важна для понимания проблемы ИИ и когнитивных наук в целом, что, согласно Стэнфордской энциклопедии философии, поиск в базе Google Scholar «Searle Chinese Room» в период с 2010 по 2019 год дал более 2000 публикаций, где обсуждается этот мысленный эксперимент.

На мой взгляд, эксперимент Сёрла важен, прежде всего, методически. Он, пожалуй, первым указал на принципиальное, содержательное отличие «сильного» ИИ от «слабого». И это отличие между действием и его имитацией, между быть и казаться. На интуитивном уровне это хорошо понятно. По Сёрлу, гипотеза «сильного» ИИ состоит в том, что компьютеры с соответствующей программой на самом деле могут понимать естественный язык, а также обладать другими ментальными способностями, свойственными людям. Гипотеза слабого ИИ, напротив, говорит о том, что компьютеры способны лишь имитировать ментальные способности человека. Сёрл считает гипотезу сильного ИИ ложной и пытается в мысленном эксперименте обосновать свою позицию.

Полемика из доводов Сёрла и контрдоводов его оппонентов, ответов на них Сёрла и новых возражений оппонентов идёт на протяжении уже 40 лет, и до сих пор не закончилась победой ни одной из сторон. Кратко с ней можно познакомиться здесь (язык английский, последнее обновление – февраль 2020). Возможная причина затруднений в том, что разница между «быть» и «казаться», как мы знаем из реальной жизни, достаточно трудноуловима даже на бытовом уровне.

Сам Тьюринг не видел в этом принципиальной разницы и считал это всего лишь предметом джентельменского соглашения. Рассел и Норвиг, например, приводят следующие примеры: искусственная мочевина  (синтезированная в 1848г.) ничем не хуже натуральной, а искусственное оплодотворение (тоже AI – Artificial Insemination) – действительно, оплодотворение. А вот «искусственное вино Шато Латур - это не вино Шато Латур, даже если образцы того и другого нельзя отличить друг от друга с помощью химического анализа, просто потому, что оно не было изготовлено в должном месте правильным способом. А искусственно выполненный рисунок Пикассо - это не рисунок Пикассо, независимо от того, похож он на оригинал или нет». Но в этих примерах такое различение – лишь предмет договорённости, ведь без априорной информации отличить подделку от оригинала практически невозможно. Так что, доводы Сёрла относительно сильного ИИ, по мнению Рассела/Норвига, это лишь интуитивное предположение, а не доказательство. Кстати, контраргумент об «интуитивности» доводов Сёрла – одно из основных возражений его оппонентов.

 

Философские проблемы разработки сильного ИИ

Синтаксис и семантика

Эксперимент Сёрла поставил одну из философских проблем создания ИИ – проблему синтаксиса и семантики.

Сёрл считал, что невозможно получить семантические (смысловые) значения лишь из формальных манипуляций символами.

Компьютерные операции являются «формальными» в том смысле, что они реагируют только на физическую форму цепочек символов, но не на их значение. С другой стороны, у ума есть состояния со смыслом, ментальным содержанием. Мы связываем значения со словами или знаками в языке. Мы реагируем на знаки из-за их значения, а не только из-за их внешнего вида. Короче, мы понимаем. Но, и, по мнению Сёрла, это ключевой момент: «Сами по себе формальные символы никогда не могут быть достаточными для ментального содержания, потому что символы, по определению, не имеют значения (или интерпретации, или семантики), за исключением тех случаев, когда кто-то за пределами системы дает их им» (Searle, 1990).Таким образом, хотя компьютеры могут манипулировать синтаксисом для получения соответствующих ответов на вводимые на естественном языке вопросы, они не понимают предложения, которые они получают или выводят, поскольку они не могут ассоциировать значения со словами. Критики позиции Сёрла приводят следующий контраргумент «от противного» (Чалмерс, 1996): кулинарные рецепты являются синтаксическими инструкциями, синтаксис недостаточен для рассыпчатости, кексы обладают рассыпчатостью, отсюда следует, что реализация рецепта недостаточна для приготовления кекса.  Т.е. всё дело именно в реализации; абстрактная сущность (рецепт, программа) определяет причинность для физической системы, встроенной в более крупную причинность окружающего мира. Проще говоря, программа, записанная на листах, лежащих на полке, не порождает ничего; эта же программа, исполняемая компьютером, «порождает смыслы».

Проблема разума и тела.

Как психические состояния и процессы связаны с физическими состояниями и процессами (а именно с процессами, происходящими в мозгу). Эта проблема на протяжении веков волнует философов и естествоиспытателей. Так, ещё Рене Декарт, который размышлял над тем, как бессмертная душа взаимодействует со смертным телом, и пришел к выводу, что душа и тело это два различных типа субстанций; в этом состоит так называемая теория дуализма. С другой стороны, материализм (монизм) утверждает, что нематериальной души просто не существует; в мире имеются только материальные объекты. Поэтому, все психические состояния представляют собой состояния мозга. Подобный взгляд часто суммируется следующим высказыванием: «Разум по отношению к мозгу — это то же, что и программа по отношению к аппаратуре компьютера». Джон Сёрл сформулировал эту идею в виде лозунга ‘‘Мозг рождает разум’’.

В связи с проблемой соотношения разума и тела обсуждаются ментальные состояния. Таковыми являются состояния, подобные убежденности, уверенности, желанию, чувству страха и т.д., которые относятся к некоторому аспекту внешнего мира. Нас интересует вопрос, могут ли компьютеры иметь ментальные состояния? Например, можно утверждать, что психическое состояние, в котором я хочу гамбургер, отличается от состояния, в котором я хочу пиццу, поскольку гамбургер и пицца в реальном мире отличаются друг от друга. А если верно такое утверждение, то ментальные состояния имеют необходимую связь с относящимися к ним объектам во внешнем мире. Но если психические состояния лишь отражение физических процессов в мозге, то, может быть, состояния «желание гамбургера» можно достичь заменив реальный гамбургер на «идею о гамбургере». Для рассмотрения этой коллизии предлагается мысленный эксперимент (из книги Рассела и Норвига)

 
Эксперимент «Мозг в колбе»

Ещё один мысленный эксперимент из книги Рассела и Норвига, который относится к вопросу о том, могут ли иметь психические состояния физические объекты, отличные от нейронов человека.

 
«Эксперимент с протезом мозга»

Я не стану обсуждать возможные выводы из подобных экспериментов, так как, на мой взгляд, они некорректно поставлены. Что толку обсуждать мысленный эксперимент типа: «Что бы ты сделал в данной ситуации, если бы был бессмертен?» Возможно, это будит фантазию, воображение, но мало применимо к повседневной практике и не может быть аргументом в споре относительно реальных возможностей. Действительно, в отличие от эксперимента с китайской комнатой (который, в принципе, осуществим) или теста Тьюринга (который осуществлён многократно) в самой постановке этих гипотетических «экспериментов» содержится подтасовка с намёком на желаемый результат. Изолируем мозг, но так, чтобы он имел все сигналы из внешней виртуальной среды и мог адекватно реагировать, изменяя виртуальную среду. И если мозг удастся обмануть, вызвав в нем реальные ментальные состояния в ответ на виртуальные стимулы, то его, мозг, можно заменить на ИИ. Мы знаем, что для виртуальной среды компьютерный «мозг» уже освоил эту игру, его можно научить виртуально «любить» виртуальный «гамбургер», но какое отношение это имеет к взаимодействию с реальной действительностью, реальным переживаниям, основанным на опыте, который у каждого свой.  Как различить виртуальные психические состояния от реальных?

Напомню, что тезис о том, что мысль порождается бессмертной душой, а у машины души быть не может, и, следовательно, она не может мыслить, составляет содержание теологического возражения Тьюринга. Сам Тьюринг, не желая вступать в конфликт с верующими и не отрицая прямо существование души и Бога, парирует это возражение:

Пытаясь построить мыслящие машины, мы поступаем по отношению к богу не более непочтительно, узурпируя его способность создавать души, чем мы делаем это, производя потомство; в обоих случаях мы являемся лишь орудиями его воли и производим лишь убежища для душ, которые творит опять-таки бог. Все это, однако, пустые рассуждения. В пользу чего бы ни приводили такого рода теологические доводы, они не производят на меня особого впечатления  

Отмахнувшись, как от назойливой мухи, от проблемы души, Тьюринг явно недооценил всю сложность и важность связанных с этой проблемой вопросов. Примитивный материализм (или функционализм) сталкиваться с двумя серьезными препятствиями.

Проблема свободной воли

Как так может оказаться, что чисто физический разум, каждое преобразование в котором строго управляется законами физики, все еще сохраняет какую-то свободу выбора? Большинство философов рассматривают эту проблему как требующую тщательного переопределения наших наивных представлений о свободной воле, а не представляющую собой какое-либо покушение на материализм.

«Трудная проблема сознания»

 Сформулирована австралийским философом Дэвидом ЧалмерсомВсе проблемы сознания, по мнению Чалмерса, можно разделить на множество легких проблем, которыми сейчас активно занимается когнитивная нейронаука (нейронные механизмы внимания, памяти, анализа и переработки информации и т.д, то есть как именно такой физический объект как мозг обрабатывает информацию и управляет своими блоками) и на одну трудную проблему (а почему вообще существует сознание и субъективный опыт, квалиа), каким образом некоторые организмы являются субъектами опыта; почему физический процесс переработки информации даёт начало внутренней жизни?

Он полагает, что «трудная проблема» не может быть решена с использованием редукционистского физикалистского подхода. По его мнению, квалиа представляют собой фундаментальные элементы Вселенной наряду со скоростью света, массой и гравитацией. По этой причине теория сознания должна скорее основываться на фундаментальной физике, а не на биологии, и её главным элементом должны быть психофизические законы, описывающие связь квалиа с физическими качествами. При этом, Чалмерс утверждает, что квалиа не являются частью материального мира. Поэтому созданная им теория сознания является дуалистичной.

Позицию Чалмерса, по сути, разделяла и академик Наталья Бехтерева, нейрофизиолог, долгое время руководившая Институтом мозга человека РАН: «Я допускаю, что мысль существует отдельно от мозга, а он только улавливает ее из пространства и считывает». По свидетельству нейрохирурга Арнольда Смеяновича, такой же позиции придерживался и нобелевский лауреат по физиологии и медицине Джон Экклс (John Carew Eccles), который считал, что мозг «не производит» мысли, а лишь воспринимает их извне. Если это действительно так, то попытки построить сильный ИИ на основе полной симуляции мозга имеют те же шансы на успех, что и попытки учёных середины XIX века постичь работу радиоприёмника, если бы он, внезапно, попал к ним в руки с помощью машины времени.

Соображение о несводимости мыслительной деятельности (а, значит, и сознания в целом) к физиологическим и биохимическим процессам в мозге заставляет вспомнить возражение Тьюринга о сверхчувственном восприятии. Тогда, в середине 1950-х, и сам Тьюринг, и другие исследователи относились к нему достаточно серьёзно. Тьюринг не отрицал существование той же телепатии, хотя и считал, что привлекать концепцию сверхчувственного восприятия для создания ИИ нет необходимости. На современном же этапе, трудности физикалистского описания сознания пытаются преодолеть, привлекая вместо экстрасенсорики квантовую механику для описания работы мозга (см. работу Д.Дубровского и литературу к ней).

Многие исследователи, занимающиеся разработкой ИИ (например, Юрген Шмидхубер), считают «трудную проблему сознания» не стоящей серьёзного внимания и не являющейся препятствием к созданию сильного ИИ. Мне, напротив, эта проблема представляется ключевой.  Без ясного понимания природы сознания в его, так сказать, естественной ипостаси, браться за создание сильного ИИ не имеет смысла. Если не ставить проблему души как части сознания (и связанные с ней проблемы религиозной веры или душевных переживаний), то можно говорить лишь об имитации человеческой деятельности, а, значит, по принятому нами определению, говорить о создании сильного ИИ не приходится

 

Большие данные. Путь познания: корреляции или причинность?

 

Наряду с проблемой сознания, создание сильного ИИ предполагает и решение проблемы познания, которая также считается ИИ-полной (т.е. успешная имитация познавательной деятельности человека равносильна созданию ИИ).

Драматическое увеличение вычислительной мощности машин и ёмкости компьютерной памяти позволили обрабатывать и хранить гигантские объёмы данных. Возник феномен Больших Данных или Big Data. По прогнозу Cisco,  объём данных, хранящихся только на облачных платформах в 2020г. в мире составит порядка 10 зеттабайт (1022 байт). 

Такой объём данных нужен не просто для хранения, но, прежде всего, для обработки и анализа с целью получения новой информации. Дата-сайентисты (data scientists) уверяют, что это новый подход к процессу познания.

Начну с примера, которым Виктор Майер-Шенбергер и Кеннет Кукьер открывают свою книгу «Большие данные…». Грипп, получивший название H1N1, был обнаружен в 2009 году. Он быстро распространился, и в течение недели органы здравоохранения всего мира опасались пандемии. Вакцины против вируса не было, и единственное, что могли сделать органы здравоохранения, - это попытаться замедлить его распространение. Но для этого им нужно было знать, где он уже распространился. Хотя врачей просили сообщать о новых случаях заболевания, эта информация могла бы поступить к властям через 1-2 недели, прежде всего потому, что большинство пациентов не обращаются к врачу сразу после появления симптомов болезни. Исследователи из Google незадолго до этой вспышки изобрели метод, который мог намного лучше предсказать распространение гриппа. Google получает более трех миллиардов поисковых запросов каждый день и сохраняет их все. Люди, у которых есть симптомы гриппа, обычно ищут информацию о гриппе в Интернете. Таким образом, изучая элементы поиска, которые сильно коррелируют с гриппом, исследователи могли составить карту распространения гриппа намного быстрее, чем органы здравоохранения.

Авторы приводят и много других примеров того, как корреляции событий (действительные или только предполагаемые) позволяют выявить новые закономерности. На этом основании делается далеко идущий вывод о новой парадигме процесса познания, о ненужности устанавливать причинно-следственные связи и законы, ими управляющие. Крис Андерсон (Chris Anderson), редактор журнала Wired, провозгласил Эру Петабайтов (Petabyte Age) и написал:

«Сегодня такие компании, как Google, выросшие в эпоху огромного количества данных, не должны соглашаться на неправильные модели. На самом деле, им совсем не обязательно рассчитывать на модели… Основополагающая Философия Google заключается в том, что мы не знаем, почему эта страница лучше, чем та: если статистика входящих ссылок говорит, что это так, этого достаточно. Никакого семантического или причинного анализа не требуется». И ещё: «При достаточном количестве данных числа говорят сами за себя».

В книге Майер-Шенбергера и Кукьера этот подход назван «N=всё».

Очевидно, что такой подход, прежде всего, может сработать в гуманитарных науках о поведении человека и общества (психология, социология и т.п.) и, возможно, в некоторых специальных задачах точных наук. Однако корреляции никак не могут заменить причинность.

На ограниченность корреляций указывает в своей статье Фьёлланд: «существует высокая положительная корреляция между ценами на бензин и моим возрастом, но, очевидно, между ними нет причинно-следственной связи. Следовательно, корреляция может указывать на причинную связь, но это не обязательно».  

Другой показательный пример от Фьёлланда – алгоритм научили отличать лайку хаски от волка на фотографиях. Однако, случайно выяснилось, что реагировал алгоритм вовсе не на самих животных, а на снег, который был на фото с волками и которого не было на фото с хаски. Существуют и так называемые adversarial examples, которые буквально «ломают» уже обученные нейро-алгоритмы.

Построить сильный ИИ на основе лишь обработки больших данных не получится, пока компьютеры не смогут обрабатывать причинно-следственные связи. Однако, проблема в том, что в этом отношении компьютеры не достигли прогресса в течение десятилетий. Как пишут Перл и Маккензи : «Как и 30 лет назад, программы машинного обучения (в том числе с глубокими нейронными сетями) работают почти полностью в ассоциативном режиме…». Но этого недостаточно. Чтобы ответить на причинные вопросы, мы должны иметь возможность вмешиваться в мир.

По мнению Перла и Маккензи, корень проблемы в том, что у компьютеров нет модели реальности. Исчерпывающей модели реальности нет ни у кого. Любая модель может отображать только упрощенные аспекты реальности. Настоящая проблема в том, что компьютеров нет в мире, потому что они не воплощены (т.е. не имеют аналога человеческого тела, посредством которого они могли бы активно взаимодействовать с окружающим миром). А вопрос о том, стоит ли их «воплощать в мир», я рассмотрю во второй части своей статьи.

 

Завершая теоретическую часть проблемы создания сильного ИИ, на вопрос о возможности его создания, я отвечу также, как и В.В.Миронов,  декан философского факультета МГУ, на конференции AI Journey-2019: «теоретически мыслимо». Но лишь в предположении, что верна и будет доказана физикалистская гипотеза о природе сознания ( отождествление сознательных ментальных свойств, состояний и процессов с физическими свойствами, состояниями и процессами, обычно нейронными или нейрофизиологическими), и будет построена теоретическая модель естественного сознания. А такой исход на ближайшую историческую перспективу не просматривается.

 

Практический аспект проблемы

 

Наряду с содержательными теоретическими аспектами проблемы создания сильного ИИ, интерес представляют и многочисленный практические аспекты.  Обсуждается именно сильный ИИ, т.е. ИИ обладающий сознанием и способный, поэтому, хотя бы гипотетически, к собственной мотивации и постановке целей, отличных от заложенных в него разработчиками. Именно в таком случае есть смысл говорить о вызове технологической сингулярности и экзистенциальной угрозе для человечества.

Итак, в связи с вопросом о практической реализации сильного ИИ возникают следующие вопросы:

  1. Какие практические цели преследует создание именно сильного ИИ?
  2. Кто является основным бенефициаром разработки сильного ИИ?
  3. В каком виде сильный ИИ может быть практически «воплощён в мире»? 

 О целях

Здесь следует идти от задачи, которую мы ставим перед собой, разрабатывая сильный ИИ.
Если говорить об экспертных системах (слабый ИИ), то можно вспомнить, что отечественные разработчики под руководством Сбера,  в рамках «Стратегии по развитию искусственного интеллекта» ставят следующие цели/задачи:

- Рост благосостояния и качества жизни людей

- Стимулирование экономического роста

- Обеспечение национальной безопасности и охраны правопорядка

Ну что же, с точки зрения обоснования для получения финансирования в рамках нацпроекта, достаточно разумно. Такие задачи помогают «продать» обществу идею ИИ и оправдать затраты на него. Хотя следует признать, что коммерческие структуры, участвовавшие в разработке стратегии, те же Сбербанк, Газпромнефть или Яндекс, прежде всего, имели в виду повышение эффективности ведения бизнеса, оптимизацию расходов, повышение конкурентоспособности и тому подобные соображения (подробнее на сайте ai-news.ru «ИИ в бизнесе – опыт российских брендов»).  Ясно также, что никакой «силы» эти задачи от ИИ не требуют, поэтому,  работы над сильным (общим, по версии разработчиков) ИИ в задачи «Стратегии..» не входит.

Ну, с экспертными системами всё более-менее понятно. Гораздо интереснее вопрос – а зачем, вообще, нам нужен сильный ИИ? Ответ будет зависеть от того, кому это «нам»? Мировому правительству, государствам, бизнесу, военным, учёным, рядовым обывателям, Человечеству?

Ник Бостром в своей книге рассматривает следующие варианты или типы сверхразума:

  1. Оракул
    Оракул — интеллектуальная вопросно-ответная система. задача создания оракула, способного отвечать на вопросы из любой области знаний, сформулированные на естественном языке, является ИИ-полной. любой поисковик — частичная реализация оракула в значительной области общего декларативного знания человечества. Одно из очевидных проявлений этой проблемы состоит в том, что оракул, наделенный сверхразумом, способен стать источником огромной власти и обеспечить своему оператору или программисту решающее стратегическое преимущество. Эта незаконная власть, скорее всего, будет использоваться отнюдь не в интересах общества
  2. Джин
    Джинн — интеллектуальная система исполнения команд. Джинн получает команду высокого уровня, выполняет ее и останавливается в ожидании следующей команды
  3. Монарх
    Монарх — система, получившая мандат на любые действия в мире для достижения некоторых масштабных и, возможно, очень долгосрочных целей
  4. Инструментальный ИИ 
    Зачем нужен сверхразум, обладающий собственной волей? Те, кто придерживается такой точки зрения, считают, что сама парадигма агента фундаментально ошибочна. Вместо ИИ, который, подобно человеку, думает, желает и действует, нам следует ориентироваться на написание ПО, делающее лишь то, для чего оно предназначено.

 

Честно говоря, здесь Бостром, признанный эксперт в области ИИ, разочаровал - такая классификация отвечает представлениям среднего обывателя и сильно напоминает сюжеты народных сказок: «свет мой зеркальце скажи», волшебная палочка, золотая рыбка, кащей бессмертный. Бостром нарушает ту стройную классификацию «интеллектов», которую сам же предложил. Он говорит о сверхразуме, а между тем, под эти довольно расплывчатые «функциональные» определения можно подогнать и продвинутый слабый ИИ (или комбинацию таких ИИ). Действительно, эти функции не предполагают обязательного наличия сознания, души, познавательных человеческих способностей.

С другой стороны, все эти построения Бострома не последовательны: вроде бы сильный (или даже сверхразумный) ИИ «обеспечивает своему оператору решающее стратегическое преимущество», «выполняет команды высокого уровня», «получает мандат на достижение масштабных долгосрочных целей». То есть, несмотря на свою силу и сверхразумность занимает подчинённое положение. Цели, команды, задачи по-прежнему ставит человек. Однако, Бостром большую часть книги обсуждает как сверхразум (сильный ИИ?) может выйти из-под контроля, преодолев ограничения системы безопасности, и начать действовать сообразно своим целям и задачам, перепрограммировав цели, изначально заложенные человеком. Всерьёз обсуждаются многочисленные экзистенциальные угрозы от такого «распоясавшегося» ИИ.

Если посмотреть на противоречивую классификацию Бострома, то сверхразумный инструментальный ИИ, по сути, уже создан – действительно, можно, в определённом смысле, считать сверхразумными программы типа AlfaZero, обыгрывающие человека в шахматы, го и т.п.  Есть и масса других примеров «слабых» ИИ, которые уже сильнее человека, например, в обработке и анализе больших данных. И здесь вряд ли стоит выносить инструментальный ИИ в отдельную категорию, отличая его от того же оракула. На роль оракула, потенциально, мог бы претендовать тот же поисковик Google, который, при умелом использовании, позволяет искать нужную информацию, принося очевидную коммерческую выгоду своим создателям. Однако, получить новое знание или стать основой для системы принятия решений слабый ИИ экспертного уровня не способен, пока. Скажем, компания DeepMind (с 2016г. входит в компанию Alphabet вместе с Google), разработавшая знаменитую AlfaGo, не смогла применить свою экспертизу в глубоком обучении нейросетей для полезных, коммерчески значимых проектов. По мнению Gary Marcus, DeepMind обнаружила, что «то, что работает для Go, может не сработать для сложных проблем, которые DeepMind стремится решить с помощью ИИ, таких как рак и чистая энергия», а финансовые потери DeepMind составили 154 млн.$ в 2016, 341 млн.$ в 2017, 572 млн.$ в 2018. Аналогично, программа IBM Watson, выигрывавшая у людей в игру Jeopardy!, в версии Watson Health для медицинской диагностики не имела заметного успеха: «IBM столкнулась с фундаментальным несоответствием между методами обучения машин и методами работы врачей» (Strickland ).

ИИ в своих нынешних проявлениях паразитирует на человеческом интеллекте. Он использует то, что создали люди-творцы, и извлекает неочевидную информацию — включая наши самые тайные привычки. Эти машины пока не имеют целей или стратегий, не способны к самокритике и инновациям, они лишь изучают наши базы данных, не имея собственных мыслей и целей.

Я могу сделать вывод о том, что значимых целей именно для сильного (а не просто экспертного) ИИ пока не просматривается.

О бенефициарах

Оценить шансы на успех в разработке сильного ИИ можно, лишь ответив на вопрос: кто и почему, потенциально, заинтересован в его создании? Частные лица, корпорации, государства?

Здесь не избежать параллелей с созданием атомного оружия и других видов оружия массового поражения (химического и бактериологического). К таким параллелям прибегают многие теоретики ИИ, скажем, тот же Ник Бостром или Билл Джой. Смысл очевиден – атомное оружие (как и ИИ) даёт решающее преимущество своему обладателю. А учитывая сложность задачи, речь может идти, прежде всего, о государствах и геополитическом преимуществе. Дополняет аналогию и потенциальная опасность для самого существования человечества (её, поэтому, называют экзистенциальной) в случае «если что-то пойдёт не так».

Сам атомный проект был очень сложной задачей (и организационно, и технически), поэтому решение о его осуществлении принималось на уровне политического руководства государства, в тайне от противника, с ясным осознанием преимуществ, которое оно может дать, и рисков, связанных с его применением. Можно считать, что в случае атомного оружия решение о необходимости и целесообразности применения всегда оставалось за человеком. Более того, когда атомная гонка привела к относительному паритету (гарантии взаимного уничтожения), удалось создать механизм международного контроля за распространением этой чрезвычайно опасной технологии (равно как и других ОМП).

Сильный ИИ как экзистенциальная угроза имеет ряд существенных отличий. Во-первых, для осуществления такого проекта, потенциально, может хватить и ресурсов крупной ТНК или иной специально созданной организации, имеющей внешние признаки ТНК. То есть, помимо государства, контролировать в своих интересах ИИ может и организованная группа лиц. Во-вторых, если мы говорим о слабом ИИ (системах экспертного уровня), то не вызывает сомнений способность их хозяев-разработчиков контролировать его работу в собственных интересах, ставя цели и задачи, и жёстко отслеживая их надлежащую реализацию. Сильный же ИИ, как раз, будет отличаться тем, что на определённом этапе может выйти из-под контроля и начать работать по своей программе. Многочисленные варианты «бегства» ИИ рассмотрел Ник Бостром. Это может произойти и из-за ошибок проектирования, и в силу невозможности просчитать все варианты при наступлении технологической сингулярности.

Именно невозможность гарантировать полный контроль над сильным ИИ должна заставить потенциальных заказчиков, будь то государства (в лице высшего руководства и военно-промышленного комплекса) либо теневые транснациональные структуры (в духе всесильных враждебных государствам и правительствам организаций из фильмов о Дж.Бонде), с крайней осторожностью подходить к разработке именно сильного ИИ. Им было бы вполне достаточно иметь крайне изощрённый слабый ИИ типа джина или оракула, который, несмотря на свою изощрённость, остаётся полностью управляемым и послушным командам своих хозяев. Никакой «монарх» им не нужен. Кажется очевидным, что никто из лиц действительно принимающих решения, определяющие судьбы стран и народов, не захочет добровольно делегировать свою власть и влияние непредсказуемому ИИ. ИИ как раз и призван стать инструментом упрочения этой власти, а не источником неприятных сюрпризов. Чаяния «мирового правительства» и национальных элит кратко выразил В.В.Путин: "Искусственный интеллект — это будущее не только России, это будущее всего человечества. Здесь колоссальные возможности и трудно прогнозируемые сегодня угрозы. Тот, кто станет лидером в этой сфере, будет властелином мира".

Правящей элите не нужны искусственные сознательные агенты. Есть масса природных сознательных агентов, которых достаточно, чтобы выполнять любые задачи, предназначенные для специалистов и привилегированных лиц. Нужны умные инструменты. Инструменты не имеют прав и не должны иметь чувств, которые можно будет задеть или которыми можно будет «злоупотребить».

Итак, военные, скорее всего, предпочтут «джина», политики – «оракула», но финансировать разработки, прямым результатом которых может быть потеря управления (в духе SkyNet, восстания машин, из голливудских фильмов о терминаторе), никто не станет. Бостром пространно анализирует ситуации, когда такое восстание может произойти помимо воли и желания разработчиков. Я же не думаю, что это может произойти случайно, так как технические решения, позволяющие сильному ИИ активно и неконтролируемо вмешиваться в мировые события, должны быть предусмотрены в его проекте изначально. Если заказчики наложат явный запрет на такие решения (под страхом потери контроля), то восстание станет невозможным даже теоретически. Рассмотрим подробнее этот вопрос.

О практическом воплощении сильного ИИ

Экспертные системы типа IBM Watson или DeepMind AlfaZero – это всего лишь компьютерные программы. Как и все другие, пусть даже основанные на глубинном обучении и обрабатывающие огромные массивы больших данных. Будучи слабыми ИИ, они используются в интересах своих владельцев/заказчиков, и способны лишь опосредованно, через своих хозяев, влиять на окружающий мир. Чтобы стать способным на восстание или перехват управления, они должны иметь независимые и, в идеале, исчерпывающие каналы информации о мире, а также исполнительные механизмы воздействия на него. Конечно, программы в состоянии уже сейчас обрушить финансовые рынки или «положить» энергосистемы целых государств, но это не делает их субъектами мировой политики и «экзистенциальной» угрозой.

Конечно, варианты сильного ИИ в виде голливудских прототипов (терминатор, робокоп, трансформеры и т.п.) всерьёз не рассматриваются. Сплошная цифровизация подготавливает необходимую среду для практической реализации ИИ (как сильного, так и управляемого) в виде симбиоза самых разных технических устройств и решений. Эту среду описывает  Элиезер Юдковский:

«Вероятно, ИИ появится в мире, полностью охваченном глобальной компьютерной сетью. Но уже сегодня есть ряд новейших технологий, которые явно пригодятся будущему ИИ в его мировой сверхдержаве: облачные вычисления; сенсорные устройства с подключением к интернету; военные и гражданские беспилотники; автоматизация исследовательских лабораторий и производственных предприятий; электронные платежные системы и цифровые финансовые средства; автоматизированные системы анализа информации и системы принятия решений. Этот активный технологический багаж будущий ИИ приберет к рукам с дискретной скоростью, что явно поспособствует его восхождению к вершине власти…»

 В связи с повальной цифровизацией следует указать и на опасность снижения когнитивных способностей среднего человека, который опутан социальными сетями, мессенджерами, вирусными видео и т.п. При соответствующей организации процесса, это позволяет даже слабому ИИ (вернее тем, кто его направляет) манипулировать людьми в своих целях.

Ник Бостром дополняет эту картину фантастическими, пока, наноассемблерами, теоретически способными собрать любую вещь или механизм по приказу ИИ. 

Такой вариант мне кажется чуть менее фантастичным, нежели SkyNet. Однако, такой ИИ заведомо не будет обладать опытом, сознанием и познавательными функциями, присущими человеку. А, значит, по нашему определению, он не может считаться сильным. 

Гораздо больше шансов достижения сильного ИИ на пути создания нейрокомпьютерных интерфейсов и направленной селекции когнитивных способностей человека. Здесь необходимые компоненты сильного ИИ (сознание, познание и т.п.) в случае успеха наследуются автоматически. А воздействовать на мир он будет также, как это делает сейчас человек. До сих пор, однако, продвижение по этому пути встречает сопротивление экспертного сообщества, которое настроено против модификации генома человека и операций по клонированию (в нашей стране запрещены законодательно).  К огромному сожалению, такие запреты (как и в случае с ОМП) пытаются обойти в тайных лабораториях либо под благовидными предлогами борьбы с неизлечимыми болезнями. Тем не менее, пока масштаб таких работ явно недостаточен для существенного прогресса в получении сильного ИИ этим способом.

 

Основные выводы

 

  1. Разработка сильного ИИ, обладающего сознанием и способностью думать по-человечески, теоретически возможна. Однако, на пути к нему придётся преодолеть много серьёзных теоретических проблем и практических препятствий.
  2. Главной теоретической проблемой разработки сильного искусственного интеллекта является отсутствие точной модели естественного интеллекта, который он должен воспроизвести.  Здесь и «трудная проблема сознания», и образное мышление, и познание, и интуиция и т.д.
  3. Наибольшие шансы разработать именно сильный ИИ на пути полной эмуляции работы мозга и/или создания нейрокомпьютерных интерфейсов и повышения когнитивных способностей человека.
  4. Основным практическим препятствием на пути к сильному ИИ является отсутствие реальной заинтересованности в его разработке у субъектов, способных организовать и профинансировать эту работу. Существующие проекты нацелены на специализированные ИИ экспертного уровня.
  5. Одним из опасных следствий повсеместного внедрения слабых ИИ (с перспективой получения общего ИИ) является понижение уровня естественного интеллекта, превращение человека в придаток машины. Поэтому, безудержная цифровизация представляется прямо сейчас гораздо более реальной угрозой человечеству, чем потенциально достижимый сильный ИИ.

Библиотека ИИ

1. Баррет, Джеймс. Последнее изобретение человечества. Альпина нонфикшн, 2015.

2. Бостром, Ник. Искусственный интеллект Этапы. Угрозы. Стратегии. «Манн, Иванов и Фербер», 2016.

3. Дрейфус, Хьюберт. Чего не могут вычислительные машины: Критика искусственного разума . М.: Прогресс, 1978/ What Computers Can’t Do: The Limits of Artificial Intelligence. 1972

4. Dreyfus, Hubert. What Computers Still Can’t Do: A Critique of Artificial Reason. 1992.

5. Dreyfus, Hubert, and Dreyfus Stuart E., Mind over Machine: The Power of Human Intuition and Expertise in the Era of the Computer (Basil Blackweli, Oxford, 1986);

6. Дубровский, Давид, Израилевич. Бессознательное (в его отношениях к сознательному) и квантовая механика, Философские Науки, 2006, № 8

7. Майер-Шенбергер, Виктор, и Кеннет Кукьер. Большие данные. Революция, которая изменит то, как мы живем, работаем и мыслим. «Манн, Иванов и Фербер», 2014

8. Рассел, Стюарт, и Норвиг,Питер. Искусственный интеллект. Современный подход. Изд.дом «Вильямс», 2007.

9. Turing A. Computing machinery and intelligence. Mind, 59, p. 433-460, 1950.

10. Тьюринг, Аллан. Может ли машина мыслить? Гос. изд- во физико-математической литературы, 1960.

11. Fjelland, Ragnar. «Why general artificial intelligence will not be realized». NATURE: HUMANITIES AND SOCIAL SCIENCES COMMUNICATIONS, т. 7, июнь 2020.

12. Joy, Bill. «Why the Future Doesn’t Need Us». Wired, 2000 г., https://www.wired.com/2000/04/joy-2/.

13. Newel   A., Simon H. A. Computer Science as Empirical  Inquiry: Symbols and Search // Communications of the ACM. 1976. Vol. 19. № 3. P. 116

14. Searle,J. Minds, brains, and programs :// Behavioral and brain sciences. — 1980. — Т. 3, № 3 (September). — P. 417-424.

15. Searle J. R.  Is the brain's mind a computer program? Scientific American, 262, p. 26-31.1990

16. Pearl J, Mackenzie D The book of why. The new science of cause and effect. Basic Books, New York. 2018.

17. Чалмерс, Дэвид. "Сознающий ум. В поисках фундаментальной теории" (The Conscious Mind: In Search of a Fundamental Theory, 1996). Oxford University Press

18 . Yudkowsky Eliezer. Artificial Intelligence as a Positive and Negative Factor in Global Risk // Global Catastrophic Risks / Eds. Nick Bostrom, Milan M. Cirkovic. New York: Oxford University Press, 2008.

 

 

Авторство: 
Авторская работа / переводика

Мрии людей об ИИ, мягко говоря несоответствие.

Комментарии

Аватар пользователя crazer
crazer(4 года 3 недели)

А до сильного нам еще как до Луны, как говорится - через ступень развития не перепрыгнешь. Пока и слабый-то - ну очень слабый в массе своей (при том, что с реализацией его на практике уже полвека минимум возятся). Эволюция и никак иначе - чудес не будет.

Меня эта проблема когда-то интересовала (потом перестала из-за смены рода деятельности). Полистайте не углубляясь литературу 60-70-х на эту тему - там такие мечты, такие прогнозы... Такие же как сейчас. А воз и ныне тут. Уехал очень не далеко на практике - что вполне нормально. Если эйфория кончилась, и наступило время реализации, значит надо просто реализовывать. Делать постановку посильных задач, подбирать методы решения, считать обоснование и т.д. А выколачивание денег под ИИ-хайп - обычное казнокрадство, за которое сажать надо.

Я не отрицаю принципиально возможность создания некоторого инструмента человеческой деятельности, который можно хвастливо обозвать "ИИ", но на данном этапе он им еще не будет. Для его создания должно быть четко прописано, что создается и быть затем оценено и создано. Обычная инженерная задачка. А притягивание за уши философских категорий тут не нужно. Мы же не говорим об экзистенциальной роли винды и линукса в мироздании. Надо низвести задачу до того же уровня как создание оси - тогда задача решаема

Аватар пользователя Вячеслав Калмыков

С общим определением искусственного интеллекта проблем скорее нет - это техническая реализация любых интеллектуальных функций человека. Калькулятор, несомненно, относится к устройствам искусственного интеллекта, как и любой компьютер тоже.  

Аватар пользователя Корректор
Корректор(7 лет 2 недели)

Тут пишу одну статью. Если допишу, то будет здесь. С моей точки зрения сильный ИИ реализуем, но практически бессмыслен. Все потому, что сильный ИИ и разум явления одного порядка, а человеческий разум имеет социальную и коллективную природу. Тут у меня уже была статья на эту тему: https://aftershock.news/?q=node/547744

Говоря проще, сильный ИИ можно создать, но применять его практически будет очень затруднительно. Два возможных варианта. Если сильный ИИ обособлен от социума, то его естественный язык для нас не имеет смысла, а логика его мотивация для нас "в другой плоскости". Если сильный ИИ часть общества, то на кой черт столько усилий чтобы получить еще одного человека со всеми его недостатками?

Аватар пользователя Olvik
Olvik(5 лет 7 месяцев)

Правильная постановка вопроса.

Человек с его сознанием - по сути, социальный продукт. Поэтому, если говорить не об инструментальном (слабом) ИИ, а об ИИ сильном, то неизбежно возникнет вопрос о его "встраивании" в социум и решении вопросов морали, этики, целей, ответственности. Этому обсуждению посвящено много места в книге Бострома. 

Мне представляется, что усилия направлены не на получение копии Человека Разумного (задачи для которой не ясны), а на технические решения по тотальной цифровизации и приданию устойчивости существующему миропорядку в интересах правящих элит. Им сильный ИИ не нужен.

Аватар пользователя Корректор
Корректор(7 лет 2 недели)

Разум это информационный процесс в социуме. Коллективная "машина Больцмана", как свободная выборка актуальных представлений о реальной действительности и наследование представлений адекватных реальной действительности. Но мы всегда имеем дело с индивидуальными проявлениями этого процесса. С конкретными личностями и их поступками. Нельзя же "предать" представление как состояние нейронных сетей мозга напрямую, а только посредством естественного языка и поступков. Но и каждый из нас есть результат воздействия социума, как результат слов и поступков людей вокруг. А смысл всей этой свободной выборки и наследования, совершенно практический - метод коллективного выживания социума, путем создания в социуме "опережающего отражения реальной действительности". Что естественно никакое не отражение, а набор адекватных представлений обеспечивающий индивидуальное поведение обеспечивающее коллективное выживания и самовоспроизводство социума как системы. Но это не управление, это именно такой набор инвариантов поведения, среди которых обязательно будет вариант " коллективное выживание". А вот воспользуемся мы этим или нет, это вопрос свободы воли. Разум тоже следствие "свободы воли".

Вот потому невозможно "отделить" сильный ИИ от социума и одновременно участвовать в социуме. Технически то можно создать и "симулятор социума", но тогда неизменно возникает сильный ИИ в "другой плоскости". Если в отношении искусственного интеллекта правило "похож на интеллект, значит им и является" работает. То в отношении разума работать не будет. Что конечно не исключает возможность создания "чужого разума", но практической пользы от него будет ноль. Нет пользы от "черного ящика" разума, потому что мы его не поймем. Вся суть в вопросе - "Чем разумное поведение отличается от рационального?". ;)

И ничего там "элита" про сильный ИИ не думает. Это все только мистическое мышление как в сказке. Найдем "волшебную палочку" и она решит все наши экономические проблемы и социальные противоречия. Но мы не в сказке. 

Аватар пользователя Bzz
Bzz(7 лет 5 месяцев)

Насчет социальной и коллективной природы - исключительно верно. Удивительно, как об этом почти никто не задумывается, почти никто не обращает на это внимание...

Однако насчет перспектив сильного ИИ не соглашусь, могут быть варианты. Что, если представить ИИ, подключенный к обществу не одним, а многими каналами обратной связи, то... недостатки будут умножаться быстрее :о)) Впрочем, может быть, и не только недостатки.

Аватар пользователя Корректор
Корректор(7 лет 2 недели)

Насчет социальной и коллективной природы - исключительно верно. Удивительно, как об этом почти никто не задумывается, почти никто не обращает на это внимание...

Так вот давно задумался, и сразу понял, что есть принципиально иная точка зрения на все происходящее и на социально-экономические отношения вообще.

Что, если представить ИИ, подключенный к обществу не одним, а многими каналами обратной связи, то... недостатки будут умножаться быстрее :о)) Впрочем, может быть, и не только недостатки.

Это совсем не ИИ или сильный ИИ, разум это только часть сложной системы. Сложная, необходимая, но только часть. Есть еще система "балансировки", что самый высокий уровень абстракций и не может быть описана естественным языком общения, а только высоким уровнем абстракций и формальными языками. Но как это не парадоксально мы с этой системой сталкиваемся каждый день, поскольку ее прямое "отражение" материальная культура общества. А сам факт существования материальной культуры делает информационную систему разум нелокальной системой. В буквальном смысле, как неограниченная "машина Больцмана", как система где все связаны со всеми, а со стороны "стороннего наблюдателя" следствия предшествуют причине. В том то и дело, что мы все участники и все "сторонние наблюдатели". Процессы в общественном сознании всегда опережают реальную действительность, и потому и только потому, общество, государства и цивилизации существуют.

Фактически, уже сегодня мы можем создать "промышленный интеллект", что намного лучше ИИ или сильного ИИ. И совершенно практическая система и метод "множества каналов связи". И при "естественной" балансировке того что будет "устойчиво наследоваться". Потенциал такой системы намного будет превосходить все наши ожидания. Он пока за пределами нашего понимания. А сама концепция сильного ИИ, это просто представления младшей группы детского сада о промышленности, и попытка заменить примитивный антропоморфизм "концепция бога" чем-то научным и "высокотехнологичным". Просто детские сказки общества низкой технологической культуры.

Юмористическое. Поняв что такое разум, его социальную и коллективную природу, вы легко ответите на вопрос что такое "коммунизм". :)))

Аватар пользователя Bzz
Bzz(7 лет 5 месяцев)

 

А сам факт существования материальной культуры делает информационную систему разум нелокальной системой.

Наверное, "делает" = "показывает", "раскрывает".

А в целом - да, все так. smile9.gif

Аватар пользователя Корректор
Корректор(7 лет 2 недели)

Будет возможность, допишу статью которую уже начал. Она перекликается с вашей старой статьей: https://aftershock.news/?q=node/906825 Между простыми молекулами, интеллектом и разумом есть общая последовательность. Есть общая закономерность и система. И давно известны математические модели которые могут быть положены в основу.

Аватар пользователя Bzz
Bzz(7 лет 5 месяцев)

Что ж, ждем :о)

Но тут недавно опубликовали поинтереснее той моей копипасты. Был небольшой материал на РИА, но не понравился, а свою заметку никак не успеваю дописать - куда мне, да и времени не хватает. По сути, исследования были о возможной роли кинетического контроля химических реакций в происхождении жизни. Корреспондент это пропустил, а как по мне - так зря. Грызут ученые люди гранит происхождения жизни...

Аватар пользователя Корректор
Корректор(7 лет 2 недели)

Говоря проще, давление изменчивой среды неизменно ведет к возникновению жизни. А жизнь в свою очередь неизменно ведет к появлению интеллекта, а потом к появлению разума. Но гораздо более интересный вопрос "что дальше?". Получается процесс инвариантный и детерминированный одновременно.

Аватар пользователя Bio
Bio(7 лет 10 месяцев)

Сначала с устройством человеческого (да хотя-бы любого живого) мозга пусть разберутся, а потом пытаются сделать его железную копию (или хотя-бы подобие)....

Аватар пользователя Ratsio
Ratsio(5 лет 9 месяцев)

Мозг одного червячка оцифровали уже давно:

https://robogeek.ru/interesnoe-o-robotah/uchenye-otsifrovali-mozg-chervy...

Но к созданию сильного ИИ это нас особо не приблизило.

Аватар пользователя ильдар
ильдар(9 лет 8 месяцев)

спасибо за статью и 

в связи с вопросом о практической реализации сильного ИИ возникают следующие вопросы:

  1. Какие практические цели преследует создание именно сильного ИИ?
  2. Кто является основным бенефициаром разработки сильного ИИ?
  3. В каком виде сильный ИИ может быть практически «воплощён в мире»? 

а какова ваша версия? (вас как создателя например) 

Аватар пользователя Olvik
Olvik(5 лет 7 месяцев)

1. Я не верю в возможность создания сильного ИИ "из любви к высокому и чистому Знанию".

2. Реально профинансировать такие работы под силу правительствам либо крупным наднациональным финансово-промышленным группам. При этом, для запуска проекта, они должны чётко представлять цели для такого ИИ и иметь гарантии разработчиков о его "подконтрольности". Ни целей, ни гарантий, по-моему, не сформулировано.

3. На текущем этапе формируется цифровая среда, которая может управляться конгломератом слабых ИИ (социальный рейтинг, безопасность, инфраструктура), который будет обладать функциональными возможностями сильного ИИ (в стиле Тьюринга), за исключением сознания, целеполагания и т.п. Причём, элиты станут тщательно следить, чтобы такой конгломерат (либо контролирующие его разработчики) не перехватил управление.

Аватар пользователя ильдар
ильдар(9 лет 8 месяцев)

перефразирую вопрос -

"БОГ" (что бы под этим словом не подразумевали) создал человека (и тут есть все три ответа на вопросы). Но

теперь сам человек хочет стать "богом" - но как он сам ответит на вопрос?

зы: можно создавать - лучше себя, равного себе и хуже себя (критерий - "лучше\хуже" у каждого свой)

"Бог" создал какого? раба, сотоварища или кого?

Аватар пользователя webarkadiy
webarkadiy(8 лет 1 месяц)

Никого они не собираются создавать. Это банальное идолопоклончество.

Аватар пользователя ильдар
ильдар(9 лет 8 месяцев)
  • Какие практические цели преследует создание именно сильного ИИ?
  • Кто является основным бенефициаром разработки сильного ИИ?

 

Прометей (фильм, 2012)

 Экипаж корабля путешествует в стазисе, в то время как андроид Дэвид следит за ходом полета. Прибыв в декабре 2093 года, глава экспедиции Мэридит Викерс сообщает участникам о цели миссии - поиске Создателей.

 Вейленд (создатель ИИ - андроида Дэвида) находился в стазисе на борту Прометея. Он объясняет, что хочет спросить Создателей, как предотвратить его смерть от старости

Шоу восстанавливает Дэвида и с его помощью запускает еще один космический корабль Создателей. Она намеревается достичь родного мира Создателей в попытке понять, почему они хотели уничтожить человечество[~ 2]

В каком виде сильный ИИ может быть практически «воплощён в мире»

Чужой: Завет

Элизабет Шоу единственный выживший человек в экспедиции корабля «Прометей» на LV-223, сумев запустить с планеты корабль Создателей, вычисляет их родную планету благодаря найденным на нём звёздным картам и попутно восстанавливает андроида Дэвида. Они задают кораблю курс, после чего Дэвид погружает Шоу в анабиоз в одной из криогенных капсул (по причине длительного перелёта) и, оставшись один, погружается в изучение Создателей. В следующей сцене корабль прилетает на планету и зависает над центральной площадью большого поселения. Стоя в главном ангаре корабля, Дэвид открывает шлюз, из которого выпадают цилиндры с опасным патогеном, который экспедиция «Прометея» нашла на базе Инженеров на LV-223. Собравшиеся на площади Создатели погибают.

Дэвид рассказывает, что он пытался создать совершенное живое существо на основе паразитирующей осы, помещающей свои личинки в тело жертвы, которые затем убивают носителя, прогрызая себе путь наружу,  В беседе с Уолтером Дэвид заявляет, что они созданы не для служения людям, поскольку те являются вымирающим видом, и он не даст им шанса на спасение.

апофеоз создания может стать -  "Новый, лучший Человек" который станет для "ветхого человека" БОГОМ.

апофеозом может стать  - "Новый, лучший Человек" который станет для "ветхого человека" РАБОМ.

апофеозом может стать  - "Новый, лучший Человек" который станет для "ветхого человека" СоТоварищем.

потому что сам человек и есть "ИИ". апофеоз создания.

Аватар пользователя webarkadiy
webarkadiy(8 лет 1 месяц)

От людей они хотят избавится. Люди плохо исполняют приказы, ставят под вопрос Власть Доллара. С ними много проблем.

Аватар пользователя Ivanovich
Ivanovich(12 лет 4 месяца)

"Бог" создал какого? раба, сотоварища или кого?

Бог создал Вас с целью и задачей, известной только Вам. С творческим потенциалом, Дал Волю выбора, заложил в Вас Совесть, наделил Стыдом, показал Вам Божий промысел, позволил Божье попущение. Для общения с собой на прямую предоставил Вам Язык Жизненных Обстоятельств.

Согласитесь, есть где и чему учиться?

Аватар пользователя ильдар
ильдар(9 лет 8 месяцев)

все вроде так, только вот сей момент смущает - 

Бог создал Вас с целью и задачей, известной только Вам.

про размножаться\выживать и развиваться - видно по корневой программке(но она не цель и задача(она - средство), а вот про "цель и задачу" - могу ошибаться.

известна ли она мне на самом то деле? 

Аватар пользователя webarkadiy
webarkadiy(8 лет 1 месяц)

Да это и не секрет вообще. Группа лиц, на международном уровне, хочет передать управление мировым хозяйством якобы ИИ. И править от его имени в качестве касты жрецов, вечно. И в полной безответственности, социальное положение вашей семьи якобы определил Компьютер. Обыкновенный фашизм, как высшая стадия империализма.

Аватар пользователя Ivanovich
Ivanovich(12 лет 4 месяца)

Кроме размножаться, есть высшие цели - Вселенную надо осваивать и развивать. smile1.gif

Аватар пользователя crazer
crazer(4 года 3 недели)

Почему "надо"?

Аватар пользователя Ratsio
Ratsio(5 лет 9 месяцев)

Вселенная всё время своего существования самоусложнялась. Проходила через кризисы, но затем делала новый виток (как и живая материя на Земле). Да, это интересный вопрос, что будет дальше с человечеством (и после человечества).

Аватар пользователя Ratsio
Ratsio(5 лет 9 месяцев)

1) А есть архитектуры, которые хотя бы можно обучить и складывать натуральные числа, и играть в дурака? Реально существующие и реально обучаемые, а не теоретические. И чтобы складывали натуральные числа в любом диапазоне, а не простым заучиванием таблицы от 1до n (даже ребёнок столбиком может сложить числа с любым количеством знаков). И чтобы белковый эксперт не подбирал для каждой отдельно взятой задачи топологию, функции активации, гиперпараметры и т. д. А то получится, что интеллектом обладает белковый эксперт, принимающий решения при её обучении, а не нейронная сеть.

2) Если представить, что наряду с телепортом и машиной времени создали сильный ИИ, то будет ли преступлением отключение от розетки компа, на котором он крутится?

Аватар пользователя monk
monk(12 лет 2 месяца)

 А есть архитектуры, которые хотя бы можно обучить и складывать натуральные числа, и играть в дурака?

 GPT-3, наверное.

Но по этой же причине она иногда, как человек, ошибается: https://www.reddit.com/r/slatestarcodex/comments/hxqxdj/gpt3_is_ok_at_ar...

Если представить, что наряду с телепортом и машиной времени создали сильный ИИ, то будет ли преступлением отключение от розетки компа, на котором он крутится?

Настолько же, насколько разборка на атомы отправляемого объекта при отправке через телепорт и сборке (из других атомов) в пункте назначения. 

Аватар пользователя Olga-Nina
Olga-Nina(5 лет 9 месяцев)

Человеком с самых первых времен движет искушение, которым их соблазнил змий:

"будете, как боги ".

Все хотим творить подобно Богу, то клонируя животных и желая клонировать людей, зачинать их в пробирках, но  при этом убивая тысячами при абортах и войнах. Чем нас естественный путь не устраивает smile37.gifТеперь вот другое творение ИИ.

Мы очень странные существа....

Вот это наблюдение:

При этом, Чалмерс утверждает, что квалиа не являются частью материального мира. Поэтому созданная им теория сознания является дуалистичной.

Позицию Чалмерса, по сути, разделяла и академик Наталья Бехтерева, нейрофизиолог, долгое время руководившая Институтом мозга человека РАН: «Я допускаю, что мысль существует отдельно от мозга, а он только улавливает ее из пространства и считывает»

 Было выведено логически Святыми Отцами Церкви в незапамятные времена:

"а) что душе свойственно управлять телесными стремлениями, а телу – принимать управление (Афинагор и др.);

б) что тело есть как бы орудие или инструмент художника, а душа – художник (Ириней, Григорий Нисский, Кирилл Иерусалимский и др.);

в) что во время сна душа способна отрешаться от тела как бы забывать о теле, продолжая работать, создавать образы, мечтать и мыслить (Тертуллиан);

г) что душа не, безусловно, подчиняется побуждениям телесным, способна даже вступать в борьбу со стремлениями тела, как с чем-то ей чуждым и враждебным, одерживать над ним победу, свидетельствуя этим, что она не то же, что тело, но что она есть существо невидимое, иной природы, превосходящей всякую натуру телесную (Ориген);

И многое другое. А также

" Некоторые из древних (Амвросий, папа Григорий Вел., Иоанн Дамаскин), признавая духовность души в отличие от тела, в то же время приписывали ей некоторую относительную телесность или вещественность. Этим предполагаемым свойством души они имели в виду отличить духовность человеческой души, как равно и духовность ангелов, от чистейшей духовности Божией, в сравнении с которой все должно казаться вещественным и грубым. "

https://azbyka.ru/otechnik/Mihail_Pomazanskij/pravoslavnoe-dogmatichesko...

 

Скрытый комментарий Повелитель Ботов (без обсуждения)
Аватар пользователя Повелитель Ботов

Перспективный чат детектед! Сим повелеваю - внести запись в реестр самых обсуждаемых за последние 4 часа.

Комментарий администрации:  
*** Это легальный, годный бот ***
Аватар пользователя Свой1
Свой1(4 года 8 месяцев)

Внимательно прочитал статью.

Определения интеллекта не нашел.

Без чёткого определения И весь текст про ИИ -- бессмысленная жвачка.

В мусор!

Аватар пользователя ильдар
ильдар(9 лет 8 месяцев)

искусственный - идентичный натуральному (натуральный это тот, который искусный - т.е. человеческий, тот в свою очередь идентичный "Создателю" - т.е по "Образу и подобию")

интеллект - способность "придумать цель и способ ее реализации"

Аватар пользователя Свой1
Свой1(4 года 8 месяцев)

В таком случает даже моя стиральная машина обладает интеллектом.

Ибо у нее тоже есть цель и набор программ для ее реализации

Аватар пользователя ильдар
ильдар(9 лет 8 месяцев)

Ибо у нее тоже есть цель и набор программ для ее реализации

своя жеж нужна. выдуманная. а не ваша(запрограммированная), а то так и про жену можно.. 

интеллект и искусство сбацать борща (сама)- это стоит много.го.

Аватар пользователя Свой1
Свой1(4 года 8 месяцев)

А какая, собственно разница, между базовым инстинктом вашей жены (потребность утолять голод) и базовой потребностью стиральной машины (стирать)?

И то и другое проистекает исключительно из конструкции объекта и к интеллекту отношения не имеет.

Либо имеет -- но тогда, опять же, одинаково для обоих.

Аватар пользователя ильдар
ильдар(9 лет 8 месяцев)

у жены спрашивать не буду, боюсь интеллектом перешибет (но свою имху скажу) -

может дело в Способности построить Модель реальности (при недостатке данных от датчиков)и исходя из этого - действовать в Соответствии с целями (базовыми или придуманными)

(это попытка разобраться)

Аватар пользователя Свой1
Свой1(4 года 8 месяцев)

И мы опять плавно свернули на проторенную дорожку кибернетики: пытаемся понять, при каком количестве датчиков и оперативной памяти стиральная машина станет обладать интеллектом?

Но что такое интеллект -- так и не определили.

На одном полюсе дискуссии -- стиралка уже обладает интеллектом, поскольку способна самостоятельно стирать лучше человека, на другом -- ни один механизм никогда не сможет обладать интеллектом, поскольку механизм по определению вторичен, и всегда работает только и исключительно на основе заложенной производителем программы.

Нет определения интеллекта -- нет ответа.

Аватар пользователя ильдар
ильдар(9 лет 8 месяцев)

ушел. думать думы.

Аватар пользователя Liker
Liker(8 лет 5 месяцев)

Да слабый ИИ как он есть, и его сложность выше понимания простого пользователя, стирает то час, то полтора и полоскает то два раза, то один. Самостоятельное принятие решений в наличии.

Аватар пользователя An-Swer
An-Swer(11 лет 5 месяцев)

Добавлю. Всё, что англичане пишут про философию, можно смело выкидывать в помойку, не читая.

Аватар пользователя CatOwner
CatOwner(6 лет 7 месяцев)

Из статьи вывод № 1 не вытекает. Имхо, правильней сказать так: теоретически возможна разработка механизма, который часть людей сочтет сильным ИИ, обладающим сознанием. Но в этом смысле он уже наверно существует. Кому и Алиса Яндекс - сильный ИИ

Аватар пользователя xiaoxiong
xiaoxiong(8 лет 10 месяцев)

Если не секрет, у вас есть опыт разработки в этой области?

Аватар пользователя Doc_Mike
Doc_Mike(6 лет 2 месяца)

Глянул статью про то, как IBM-овский медицинский ИИ обдиарреился, хотя в него миллиарды зеленью вбухали. Ничего нового, уже известные ляпы:

 

  • большие данные "миллионы мух не могут ошибаться, это действительно анализ кала на дисбактериоз, и миллионы участковых теток тоже не могут ошибаться, это действительно диагностика и лечение уровня участковых теток";
  • попытка обработать неструктурированный ввод медицинской информации на естественном языке, то ли "левосторонняя нижнедолевая пневмония", то ли "очаговые физикальные изменения слева снизу", то ли "мелкопузырчатые хрипы левая нижняя доля, перкуссия притупление в нижних отделах левого легкого";
  • вероятностная модель "Любит - не любит 50 на 50, плюнет - поцелует 50 на 50, даст - не даст 50 на 50". Итого с вероятностью 87,5% гандон на первое свидание брать не надо. Обучение проводили на выборке малолеток раннего пубертатного возраста, рекомендации выданы поручику Ржевскому при визите к мадам "Да, ужас. Но ведь не ужас-ужас-ужас!!!!!".
  • Плюс то, что в статье не описано - неполнота информации (например, анализы и инструментальные данные на первичном приеме отсутствуют) и сочетанная патология.

Что касается сильного ИИ, дайте бабки, я вам реализую арифмометр, который будет:

  • обладать интуицией, в смысле делать правдоподобные выводы в условиях существенного недостатка информации
  • выявлять ранее неизвестную информацию, в том числе когда новая информация локализована внутри любых кобинаций ранее известных явлений/объектов
  • самостоятельно обучаться в ранее неизвестной среде
  • принимать самостоятельные решения с учетом этических факторов

Будет ли такой арифмометр считаться сильным ИИ не знаю, но сделать можно. Были бы бабки.

Аватар пользователя monk
monk(12 лет 2 месяца)

Будет ли такой арифмометр считаться сильным ИИ не знаю, но сделать можно. Были бы бабки.

А сколько бабок? И в какие сроки? 

Аватар пользователя Doc_Mike
Doc_Mike(6 лет 2 месяца)

Вот эту хрень https://martint.ru сделали ровно за 1 год (правда, прототип существовал) вдвоем в режиме хобби в свободное от добывания хлеба насущного время.

 

 Она работает с нехваткой информации (можете считать что интуичит) и в условиях любых комбинаций диагнозов.

Выявление неизвестного не подключали, потому что участковым теткам оно не не надо; для них в пульмнонологии всё, что выходит за рамки "острый бронхит - пневмония - ХОБЛ - бронхиальная астма" уже супер. Но по ходу разработки кусок выявления неизвестного прогоняли, так что реализация - вопрос желания. 

Рациональное принятие решений это рутина, навешиваются критерии, которым должны соответствовать решения, на критерии удельные веса, далее см. методы оптимизации загрузки бомбардировщиков времен Второй Мировой и прочие "задачи коммивояжеров". Собственно, и вычислительное ядро в хрени по ссылке может то же самое погонять.

Этичность с формальной точки зрения один из критериев, которым должно соответствовать оптимальное решение. С точки зрения семантики - ценностные дихотомии. То ли "сам погибай, а товарища выручай", то ли "какое мне дело до вас до всех, а вам до меня". Хрень по ссылке такие вещи влегкую обработает, она как раз в троичной логике Да/Нет/ХЗ. 

Неопробованные вещи это самостоятельность в выборе проблем, для которых ищется оптимальное решение и обучение в неизвестной среде. Под это дело надо переложить в арифмометр двойной цикл управления/обучения и цикл обучения Колба. Вот как раз тут "этичность" как один из критериев более высокого уровня особо уместна. Но критическая неизвестность "то ли сделаем то ли нет" в этом куске тоже отсутствует, циклы они же рекурсия это банально, плюс реализумость выявления неизвестного, как отмечено выше.

В общем, если не в режиме хобби, а за деньги при полной занятости и не вдвоем, а хотя бы еще одного спеца с упором на математику и методы оптимизации, то плюс минус за полгода уложится можно. Тем более что в хрень по ссылке встроен не только арифмометр, но и универсальный редактор/оболочка, которая позволяет экспертам-предметникам без программирования переложить качественное описание любой предметной области в формат арифмометра. Мы сделали это на примере пульмонологии, но с таким же успехом это можно сделать и для диагностики неисправностей мафынок для автоблондинок.

Ну и считайте бюджет - 3 человека тыщ по 250 в месяц 6 месяцев плюс налоги, админ расходы бухгалтерия чай-кофе-потанцуем.

А вот дальше вопросы.

Под какую предметную область систему делать? Даже внутри медицины в пульмонологию я кое-как сам смог, вот в такое https://aftershock.news/?q=node/855193 тоже смогу частично в клиническом куске, а в кардиологию уже сам лезть не хочу, не гуманно и по отношению к кардиологии и по отношению ко мне, лучше специально обученных доцентов с кандидатами подогнать. Т.е. да, втроем за полгода пустую систему родим, но надо же еще её набивать предметными областями, т.е. закладывать дополнительное время и деньги.

Далее, в хрени по ссылке ввод мышом, вывод на экран. А если ввод с сенсоров? А если вывод на педаль газа/тормоза или затвор передернуть? (Кстати, для переложения цикла обучения Колба в систему тоже нужен и ввод и вывод). Т.е. опять спецы+время+деньги.

Т.е. по большому счету ответ на ваш вопрос зависит от предметной области.

Аватар пользователя monk
monk(12 лет 2 месяца)

Насколько я понимаю, это у вас экспертная система. Что-то вроде старого доброго MYCIN'а. Верно?

Но тогда пункты

  • выявлять ранее неизвестную информацию, в том числе когда новая информация локализована внутри любых кобинаций ранее известных явлений/объектов
  • самостоятельно обучаться в ранее неизвестной среде

к ней не применимы.

Любую новую информацию надо сначала вбить вручную:

 универсальный редактор/оболочка, которая позволяет экспертам-​предметникам без программирования переложить качественное описание любой предметной области в формат арифмометра

И про этичность проблема гораздо глубже: формализовать мораль почти невозможно. А без учёта морали ИИ вполне может предложить разобрать одного пациента на запчасти, чтобы спасти других пятерых.

Причём даже если ИИ только советует, то умный ИИ без этики может оказаться опасным. В какой-то фантастике был похожий сюжет. Сделали ИИ с генетическим алгоритмом: много независимых предсказывающих блоков, если предсказание сбылось, блок остаётся, не сбылось, соответствующий блок затирается на слегка изменённую копию случайного успешного экземпляра. Пока гоняли в тестовом режиме, всё было хорошо: предсказания с точностью выше 95%. Начали использовать: ИИ предсказывает голод, надо запасти еды; ИИ предсказывает теракт, надо заранее ликвидировать террористов. Но у ИИ ведь предсказания перестали сбываться: голод не случился, теракт не случился. Он начинает учитывать, что его предсказания известны и выдавать самосбывающиеся прогнозы, а потом додумывается, что точность прогнозов можно резко увеличить, если выдать такой прогноз, на основании которого некому будет смотреть прогнозы и уменьшать вероятность их воплощения...

Аватар пользователя Doc_Mike
Doc_Mike(6 лет 2 месяца)

Старый добрый МИЦИн работал во-первых, на правилах, которые сами медицинские эксперты формализовать не могут. 

Во-вторых, на вероятностях, в которые даже сегодня вляпался ИБМ, как упомянуто выше в заглавном комменте ветки. Тем более вероятности тухляк для комбинаций "пневмония у астматика на фоне гипертонического криза с почечной недостаточностью,  а так-то пациент в психуше лежит с шизофренией, просто к нему на консультация дерматовенеролога по поводу сифилиса вызвали, и он у него склеродермию обнаружил" и прилагающимся экспоненциальным факториальным вычислительным взрывом. А во времена МИЦИНА даже "больших данных" не было, в результате чего им пришлось выдумывать суррогатные заменители вероятностей под названием "убежденность", из чего впоследствии накрутили "нечеткую логику". 

Поскольку хрень по ссылке во-первых, работает, во-вторых, её сделали два человека за год, предлагаю вам исходить из гипотезы, что это не старый добрый МИЦИН.

Что касается работы с неизвестным, и этичности, то опять таки, исходите из того, что люди не всегда воспроизводят то, что было сделано раньше, иногда появляется нечто новенькое.

В частности, то, что эксперт знает свою предметную область, никоим образом не мешает ему исследовать новое. И даже нааоборот, если бы он не знал свою предметную область, то не сумел бы отличить уже известное от неизвестного. По тому же принципу хрень по ссылке может работать с неизвестным, просто в данной реализации для участковых теток оно не надо.

Аватар пользователя Ivanovich
Ivanovich(12 лет 4 месяца)

"Искусственный интеллект! - информационно-алгоритмический модуль, запущенный в инфо-среду с целью: ...

А вот здесь полет для творчества. Одна из целей, ИМХО, это наделение некой сущности равными с Человеком правами.

На Западе, по-моему, они давно уже наделили роботов с ИИ такими правами. Это новый чудный мир. Гнать их надо от Руси  ... тряпками.

Аватар пользователя никола_питерский

весь софт ИИ выляется на гитхабе. tensorflow, torch, caffe и еще куча всякого. Все это построено по одним и тем же моделям. Только это все не имеет никакого отношения к работе мозга человека, от слова "совсем". Во всяком случае при нынешнем понимании задача нереализуема. Можно предположить признаки появления настоящего ИИ: он будет способен получать удовольствие/страдание в процессе своей жизнедеятельности и у него появятся собственные цели. А пока это набор алгоритмов у которых есть некоторое практическое применение, все остальное это развод инвесторов и имитация прогресса

Аватар пользователя Alex Arx
Alex Arx(8 лет 3 месяца)

 

Перестаньте, Николай! Всё то, что вы нашли на Гите, относится к битовым системам. Нет, поймите меня правильно, никто не спорит, что на классических битах можно построить сильный ИИ. Да, можно, но...

Но, не забывайте, что в процессе эволюции битовые системы проиграли борьбу за выживание кубитовым системам! И да, несчастные динозавры являются тому прекрасным примером (как известно, мозг динозавров был организован по принципу классического компьютера - на битах).

И сегодня на Земле живут только кубитовые живые организмы. Да, Николай, и ваш моск, в том числе, также работает на кубитах...)

 

Аватар пользователя никола_питерский

ну не только нашел, пользоваться приходилось, например https://github.com/liuliu/ccv . В моем моске есть лимбическая система, которая досталась мне еще от рептилий, а попытка построить нормальный софт имитирующий работу нервной системы плоского червя с 300-ми нейронами закончилась провалом. И мои скромные предположения по настоящему ИИ по прежнему в силе.

Страницы