Призрак в доспехах: обретет ли ИИ когда-нибудь сознание?

Аватар пользователя Отсюда

По мере того, как общество приближается к ИИ человеческого уровня, ученые спорят о том, что значит существовать.

«Чтобы добиться уникальности, недостаточно просто запускать современное программное обеспечение быстрее. Нам также необходимо будет создавать более умные инфункциональные программы. Создание такого продвинутого программного обеспечения требует предварительного научного понимания основ человеческого познания, и мы лишь поверхностно касаемся этого. Эта предварительная потребность в понимании фундаментальной науки о познании - вот где аргументы «близка к сингулярности» не могут нас убедить».

 ​Призрак в доспехах: будет ли когда-нибудь ИИ в сознании?

Робот за рулем автомобиля в футуристическом городе.4X-изображение / iStock

Представьте, что вы проходите процедуру, при которой каждый нейрон в вашем мозгу постепенно заменяется функционально эквивалентными электронными компонентами. Допустим, замена происходит по одному нейрону за раз, и при этом в поведении вас ничего не меняется. Со стороны вы по-прежнему остаетесь «собой» даже для самых близких друзей и любимых. 

Что случилось бы с вашим сознанием? Будет ли он постепенно исчезать, по одному нейрону за раз? Не исчезнет ли он внезапно после замены какой-то критически важной для сознания частицы в задней части коры головного мозга? Или вы бы просто остались собой, полностью осознавая свой жизненный опыт и разум (и довольный или ужаснувшийся тому, что ваш разум теоретически может быть сохранен навсегда)? 

Этот знаменитый мысленный эксперимент с сознанием , предложенный философом Дэвидом Чалмерсом в его статье 1995 года « Отсутствие Qualia, Fading Qualia, Dancing Qualia» , поднимает практически все важные вопросы, возникающие в дебатах о возможности сознания в искусственном интеллекте. 

Если перспектива понимания происхождения нашего собственного сознания и сознания других видов является, как скажет вам каждый отдельный человек, изучающий ее, устрашающей, то воспроизвести ее на машинах - это до абсурда амбициозная задача. 

«Создание такого продвинутого программного обеспечения требует предварительного научного понимания основ человеческого познания, и мы лишь поверхностно касаемся этого».


Будет ли ИИ когда-нибудь сознательным? Как и в случае со всеми вещами, связанными с сознанием, ответ заключается в том, что на данный момент никто не знает, и многие думают, что для нас может быть объективно невозможно понять, проявляется ли когда-либо явление гибкости в машине. 

Возьмите только что описанный мысленный эксперимент. Если сознание является уникальной характеристикой биологических систем, то даже если бы роботизированная замена вашего мозга позволила вам функционировать точно так же, как и до процедуры, внутри не будет никого дома, и вы будете зомби-оболочка вашего бывшего я. У самых близких есть все основания принять ваше сознание как данность, но они ошибаются. 

Возможность того, что мы можем ошибочно сделать вывод о сознании на основе внешнего поведения, не является абсурдным. Вполне возможно, что, как только нам удастся создать общий искусственный интеллект - такого рода, который не является узким, как все, что существует сейчас, - который может адаптироваться, учиться и применять себя в широком диапазоне контекстов, технология будет ощущаться для нас осознанной, независимо от того, есть это на самом деле или нет.

Представьте себе своего рода Alexa или Siri на стероидах, программу, с которой вы можете общаться, которая, как любой человек, умеет общаться с разнообразной интонацией и творческим умом. Граница быстро размывается.

Строки кода подсвечивают экран компьютера красным, белым, желтым и зеленым светом.

Источник: Маркус Списке / Unsplash

Тем не менее, для ИИ может быть не обязательно, нежелательно или даже невозможно достичь или проявить какое-либо сознание.

Макс Тегмарк, профессор физики Массачусетского технологического института и президент Института будущего жизни, сетует: «Если вы скажете «слово на букву С» исследователю ИИ, нейробиологу или психологу, они могут закатить глаза. Если они ваши наставник, они могут вместо этого сжалиться над вами и попытаться отговорить вас от траты времени на то, что они считают безнадежной и ненаучной проблемой ».

Это разумная, если не сказать слегка пренебрежительная позиция. Зачем вообще принимать во внимание проблему сознания? Технические титаны, такие как Google и IBM , уже добились впечатляющих успехов в создании алгоритмов самообучения, которые могут обогнать и опередить (хотя и в строго определенных обстоятельствах) любой человеческий мозг, а также программы глубокого обучения в области медицины. превосходящие врачи в некоторых областях выявления опухолей и оценки анализов крови. Эти технологии, хотя и не идеальны, работают хорошо, и они только улучшаются в том, что делают. 

Дуглас Хофштадтер, первый феноменолог, написавший получившую Пулитцеровскую премию книгу « Гедель, Эшер, Бах: вечная золотая коса» , - один из тех, кто считает, что нам есть о чëм беспокоиться, и на то есть веские причины. 

«Человеческий сознание - удивительное, тонкое и малоизученное явление. Нет опасности в том, что мы можем воссоздать его в ближайшее время ».


В интервью The Atlantic в 2013 году Хофштадтер объясняет свою веру в то, что мы в значительной степени упускаем из виду суть, если не принимаем во внимание такие вещи, как природа сознательного интеллекта. Ссылаясь на Deep Blue, известную шахматную программу, разработанную IBM, которая победила Гэри Каспарова в 1997 году, он говорит:

«Хорошо, [...] Deep Blue играет в очень хорошие шахматы - ну и что? Это что-то говорит вам о том, как мы играем в шахматы? Нет. Это говорит вам о том, как Каспаров видит и понимает шахматную доску? »

Точка зрения Хофштадтера очень важна. Если эти сверхспособные алгоритмы не построены на правильном понимании нашего собственного разума, которое их информирует, понимании, которое все еще находится на начальной стадии, как мы можем узнать, достигают ли они сознательного интеллекта? Что еще более важно, без четкого понимания феномена сознания, создаст ли эта технология в будущем больше проблем, чем решит?

Микрочип находится на синей плате.

Источник: Харрисон Бродбент / Unsplash

В книге «Искусственный интеллект: руководство для мыслящих людей» Мелани Митчелл, бывшая аспирантка Хофштадтера, описывает страх перед безрассудным развитием ИИ, который ее наставник однажды выразил в комнате, полной инженеров Google, на встрече 2014 года в штаб-квартире компании в Маунтинвью. Калифорния.

«Мне очень страшно, очень тревожно, очень грустно, и я нахожу ужасным, ужасающим, причудливым, сбивающим с толку, сбивающим с толку, что люди слепо и безумно мчатся вперед, создавая эти вещи». 

Когда это изрядное количество сомнительных прилагательных, которые можно связать вместе, исходит от кого-то кто разбирается в этом, по словам философа Дэниэла Деннета, лучше, чем кто-либо другой в изучении психических явлений, это заставляет вас оценить потенциальную серьезность того, что поставлено на карту. 

 

Сознательный ИИ: не при нашей жизни

Хотя на каком-то уровне опасения Хофштадтерса вполне обоснованы, другие, такие как Митч Капор, предприниматель и соучредитель Electronic Frontier Foundation и Mozilla, считают, что нам пока не следует впадать в панику. Выступая на Vanity Fair в 2014 году, Капор предупреждает:

«Человеческий интеллект - удивительное, тонкое и малоизученное явление. Нет опасности в тм, что мы можем его воссоздать в ближайшее время ».

Тегмарк называет «техноскептиками» тех, кто чувствует, как Капор, что до AGI еще несколько сотен лет. Среди членов этой группы - Родни Брукс, бывший профессор Массачусетского технологического института и изобретатель робота-пылесоса Roomba, и Эндрю Нг, бывший главный научный сотрудник Baidu, китайской компании Google, который, по словам Тегмарка, сказал:

«Роботы - это все равно, что беспокоиться о перенаселенности Марса». 

 

«Эксперты считают, что системы искусственного интеллекта, вероятно (более 50%) достигнут общих человеческих возможностей к 2040–2050 гг. И очень вероятно (с вероятностью 90%) к 2075г.». 


Это может показаться преувеличением, но примите во внимание тот факт, что не существует программного обеспечения, которое даже близко могло бы конкурировать с мозгом с точки зрения общих вычислительных возможностей.

Перед своей смертью в 2018 году Пол Аллен, соучредитель Microsoft и основатель Allen Institute for Brain Science, вместе с Марком Гривсом написал в MIT Technology Review, что достижение сингулярности (точки, в которой технологии развиваются за пределы человеческих возможностей контролировать, прогнозировать, или понимать) потребует гораздо больше, чем просто проектирование все более компетентных машин:

«Чтобы добиться уникальности, недостаточно просто запускать современное программное обеспечение быстрее. Нам также необходимо будет создавать более умные и функциональные программы. Создание такого продвинутого программного обеспечения требует предварительного научного понимания основ человеческого познания, и мы лишь поверхностно касаемся этого. Эта предварительная потребность в понимании фундаментальной науки о познании - вот где аргументы «близка к сингулярности» не могут нас убедить ». 

Единомышленники, такие как Навин Джоши, сооснователь Allerin, компании, занимающейся большими данными и машинным обучением, утверждают, что мы стремительно отдаляем себя от создания AGI. Однако, как он признает в статье в  Forbes , быстрые темпы нашего развития ИИ могут легко изменить его мнение. 

 

Это на гор-ИИ-зонте 

Безусловно, чаша весов склоняется в пользу тех, кто считает, что AGI будет достигнут до конца этого века. В 2013 году Ник Бостром из Оксфордского университета и Винсент Мюллер из Европейского общества когнитивных систем опубликовали в журнале Fundamental Issues of Artificial Intelligence обзор, в котором оценивалось мнение экспертов в области искусственного интеллекта относительно сроков, в которые технология может достичь уровня, подобного человеческому. 

В отчете отражено «мнение экспертов о том, что системы искусственного интеллекта, вероятно (более 50%) достигнут общих человеческих возможностей к 2040–2050 годам, и очень вероятно (с вероятностью 90%) к 2075 году». 

«Быстрый прогресс в ближайшие десятилетия приведет к появлению машин с интеллектом человеческого уровня, способных говорить и рассуждать, с несметным вкладом в экономику, политику и, неизбежно, военное искусство».


Футурист Рэй Курцвейл, ученый-компьютерщик, стоящий за технологиями синтезатора музыки и преобразования текста в речь, также верит в быстрое приближение к сингулярности. Курцвейл настолько уверен в скорости этого развития, что даже делает ставки на свои предсказания. Он ставит 10000 долларов на  то, что машинный интеллект сможет пройти тест Тьюринга, задача которого заключается сводится к тому, сможет ли компьютер обмануть человека-судью, заставив его думать, что он сам является человеком, к 2029 году.

Вскоре после этого, по мнению Курцвейла, человечество сольется с созданной им технологией, загрузив наши умы в облако. Каким бы замечательным ни был этот оптимизм, это кажется маловероятным, учитывая наше новое понимание мозга и его отношения к сознанию.

Кристоф Кох, один из первых сторонников стремления к выявлению физических коррелятов сознания, придерживается более обоснованного подхода, сохраняя при этом некоторый оптимизм в отношении появления человеческого ИИ в ближайшем будущем. В своей статье для Scientific American в 2019 году он говорит: «Быстрый прогресс в ближайшие десятилетия приведет к появлению машин с человеческим интеллектом, способными говорить и рассуждать, с огромным вкладом в экономику, политику и, неизбежно, военное искусство».

Робот с черным монитором на лице.

Источник: Posaged Photography / Unsplash

Кох также является одним из соавторов «теории интеграции информации сознания» нейробиолога Гилио Тонони. По словам Тегмарка, теория утверждает, что «сознание - это то, как информация воспринимается, когда обрабатывается определенными сложными способами». IIT утверждает, что сознание любой системы можно оценить с помощью метрики (или Phi), математической меры, детализирующей, сколько причинной силы присуще этой системе.

В книге Коха «В поисках сознания: нейробиологический подход» Кох приравнивает  фи  к степени, в которой система является «больше, чем сумма ее частей». Он утверждает, что фи может быть свойством любого объекта, биологического или небиологического. 

По сути, эта мера может использоваться для обозначения того, насколько внутренняя работа системы осведомлена о другой внутренней работе этой системы. Если 𝚽 равно 0, то такой осведомленности нет, и система ничего не чувствует. 

Конечно, это одна из многих теорий, но она примечательна попыткой математической измеримости, помогающей сделать нематериальное ощущение сознания чем-то осязаемым. Если это будет доказано, то это по существу исключит возможность того, что машины могут находятся в сознании, о чем Тонони подробно рассказывает в интервью BBC : 

«Если теория интегрированной информации верна, компьютеры могли бы вести себя точно так же, как мы с вами - действительно, вы [даже] могли бы [даже] иметь возможность вести с ними разговор, который был бы столь же полезен или более полезен, чем с вами или мной - и все же буквально никого там не быть».

 

Оптимизм (человеческий)

Переплетение сознания и искусственного интеллекта представляет собой нечто вроде цивилизационного акта балансировки. Возможно, нет других областей научных исследований, в которых мы так быстро развиваемся, имея так мало представления о том, что мы потенциально делаем. 

«Посвящение 100% своих усилий предотвращению болезней и несчастных случаев - отличный рецепт для ипохондрии и паранойи, а не счастья». 


Если нам удастся, намеренно или случайно, создать машины, которые воспринимают мир субъективно, этические последствия этого будут огромными. Это также станет переломным моментом для нашего вида в понимании того, что значит создание новой жизни. Мы поступим правильно, если начнем подходить к этому вопросу более серьезно в не зависимости от того, как скоро это произойдет. 

В любом случае, может быть имеет смысл подумать об этих проблемах с меньшим страхом и более осторожным оптимизмом. Это именно тот тон, который использует Тегмарк в конце своей книги, в которой он предлагает следующую аналогию:

«Когда студенты Массачусетского технологического института приходят ко мне в офис за советом по вопросам карьеры, я обычно начинаю с того, что спрашиваю их, где они видят себя через десять лет. Если бы студентка ответила: «Возможно, я буду в онкологическом отделении или попаду на кладбище после того, как меня собъет автобус», я бы предостерег еë от  100% усилий в еë стремлени избежать болезни и несчастного случая. Стремление к этому - это отличный рецепт ипохондрии и паранойи, а не счастья».

Какую бы форму ни принял ум AGI, он будет зависеть от нашего собственного, отражать его в себе. Кажется, что сейчас идеальное время для человечества, чтобы сделать приоритетным проект коллективной разработки дорогих нам моральных и этических принципов. Это будет не только поучительно в отношении того, как  нам стоит относиться друг к другу с достоинством, но и поможет обеспечить разумный искусственный интеллект подобными навыками, когда его создание станет возможным. 

Эрик Джеймс Бейнер 17 апреля 2021

Авторство: 
Копия чужих материалов
Комментарий автора: 

Первый раз на моей памяти сталкиваюсь с подобной точкой зрения оттуда... Растут чертяки :) Очень качественный материал и уровень понимания проблемы. Не иначе как АШ почитывают :))) Мой респект и уважуха товарищу автору. Если бы был советником президента, то обязательно бы посоветовал ему взять этот вопрос под своë начало. Потому как именно русские, как никто другой, близки к пониманию и решению этой задачизадачи в силу совокупности множества околообстоятельств. 

Задача эта мирового масштаба, и если уж мы и претендуем на какое-то доминирование в этой вселенной, то и глобальные задачи перед человечеством нужно учиться ставить. Выходить, так сказать, за рамки предыдущего опыта.. 

...пока есть такая возможность. 

Комментарии

Аватар пользователя Сяня
Сяня(3 года 7 месяцев)

  Тяга к ИИ появляется, когда снижается либидо.

Ну, а уже его последующую сублимацию в один из заместителей творческой энергии в виде фетишизации ИИ, можно квалифицировать как своеобразное ЛГБТ-лавирование без конкретных дуальных привязок к осознаваемой реальности.

  

Аватар пользователя Отсюда
Отсюда(5 лет 2 месяца)

Тяга к ИИ появляется, когда снижается либидо.

 Ты меня раскусил.. smile7.gif расходимся :)) 

Аватар пользователя uyuuyyy
uyuuyyy(4 года 5 месяцев)

Успокойтесь, никакого ИИ нет. Есть алгоритмы, разработанные людьми для примитивных счетных машин. По идеологии суперкомп не отличается от калькулятора. И мы должны говорить о совершенствовании программного обеспечения и технической платформы. А ИИ обсуждается в другой секции - принципиально иной системы программирования, предусматривающей операторы типа "возможно", "хочется", и исследовании примитивного разума червей и насекомых. И хватит воровать деньги из бюджета на "искусственный интеллект".

Аватар пользователя Отсюда
Отсюда(5 лет 2 месяца)

Успокойтесь, никакого ИИ нет.

 ИИ обсуждается в другой секции - принципиально иной системы программирования, предусматривающей операторы типа "возможно", "хочется", и исследовании примитивного разума червей и насекомых.

Так успокаиваться или нет?! 

Черви с искусственным интеллектом - неплохой сюжет для хоррора вырисовывается :) 

Аватар пользователя Kozel de Baran
Kozel de Baran(5 лет 3 месяца)

Вы, похоже, не понимаете произошедшей ррреволюции. Вместо диип блю, которого долгие годы учили обыгрывать Каспарова, сейчас любой похожий компьютер с обычной программой легко уделывает ИИ на нейросетях, подобных человеческим, после нескольких часов игр с самим собой.

Так что ИИ, самообучающийся, есть уже сейчас. А вот куда и во что он разовьётся и чему его захотят научить - вопрос вопросов.

Аватар пользователя Rinat Sergeev
Rinat Sergeev(7 лет 3 месяца)

Сам ИИ можно создать довольно быстро - у природы получилось.
Проблема ИИ - в отсутствии среды для обучения. Без страха смерти и возможности конкурентного размножения - цель "обучения" для ИИ не определить. ИИ без "смысла жизни" становится интеллектуально ленивым и шевелится исключительно под пинками программеров, что непродуктивно.

В принципе, можно предсказать довольно скорое появление первых настоящих ИИ в игровых мирах - там можно воссоздать условия природной среды. Из плюсов - там можно резко ускорить время, и не ждать 100 миллионов лет. Из минусов - виртуальные миры очень сильно упрощены по сравнению с реалом с точки зрения стимулов и задач.

Аватар пользователя Отсюда
Отсюда(5 лет 2 месяца)

Сам ИИ можно создать довольно быстро - у природы получилось.

В статье тоже особо не стоит вопрос о возможности. Вопрос скорее в качестве воспроизводимого сознания. 

Аватар пользователя Rinat Sergeev
Rinat Sergeev(7 лет 3 месяца)

Сознание - это всего методика самотренировки в условиях недостатка данных.

Чтобы обычный алгоритм натренировать, например, на то, чтобы убежать ото льва - он должен с этим львом встретиться эдак 10 тысяч раз, в разных условиях и раскладах. И где-то в половине случаев его должны съесть. Сложный живой организм этого позволить не может, и потому - создает "виртуальную песочницу" у себя в мозгу, отыгрывая все эти расклады без того, чтобы их испробовать в реале. То есть, должен создать модель льва и модель "заинтересованного себя" у себя же в мозгу. Последняя - и есть сознание.

Я уже видел алгоритмы, которые в некотором смысле это используют. То есть, тренируются не только на реальных данных - но и "создают" дополнительные данные для тренировки. Эдакий, прото-ИИ.

Аватар пользователя одессит
одессит(4 года 5 месяцев)

Интеллект человеку дан Богом. Мы можем только повторить где-то близко, но не более. 

Аватар пользователя Отсюда
Отсюда(5 лет 2 месяца)

Речь в статье как раз о том, что для того чтобы дальше копировать то, чем нас наделил Бог, для начала было бы не лишним разобраться, чем же он нас таким наделил.. 

В книге «Искусственный интеллект: руководство для мыслящих людей» Мелани Митчелл, бывшая аспирантка Хофштадтера, описывает страх перед безрассудным развитием ИИ, который ее наставник однажды выразил в комнате, полной инженеров Google, на встрече 2014 года в штаб-​квартире компании в Маунтинвью. Калифорния.

«Мне очень страшно, очень тревожно, очень грустно, и я нахожу ужасным, ужасающим, причудливым, сбивающим с толку, сбивающим с толку, что люди слепо и безумно мчатся вперед, создавая эти вещи». 

Когда это изрядное количество сомнительных прилагательных, которые можно связать вместе, исходит от кого-​то кто разбирается в этом, по словам философа Дэниэла Деннета, лучше, чем кто-​либо другой в изучении психических явлений, это заставляет вас оценить потенциальную серьезность того, что поставлено на карту. 

Пока что мы не совсем правильно это понимаем - и это общее мнение. 

Аватар пользователя Сяня
Сяня(3 года 7 месяцев)

   Интересно наблюдать, как Дон Кихот, облаченный в "доспехи бога", предпринимает отчаянные попытки договориться с ветряной мельницей об интимной встрече на сеновале в неослабевающей надежде на взаимность. Пожелаем им взаимопонимания и любви.smile122.gifsmile157.gif

  

Аватар пользователя Отсюда
Отсюда(5 лет 2 месяца)

smile32.gif любовь спасет этот мир :) 

Скрытый комментарий Сяня (c обсуждением)
Аватар пользователя Сяня
Сяня(3 года 7 месяцев)

Совет да любовь.) 

 

Аватар пользователя Отсюда
Отсюда(5 лет 2 месяца)

smile7.gif

Скрытый комментарий Повелитель Ботов (без обсуждения)
Аватар пользователя Повелитель Ботов

Годный срач. Ахтунг - пахнет трольчатиной! Автор, нет ли в обсуждении упырей? Сим повелеваю - внести запись в реестр самых обсуждаемых за день.

Комментарий администрации:  
*** Это легальный, годный бот ***

Страницы