По мере того, как общество приближается к ИИ человеческого уровня, ученые спорят о том, что значит существовать.
«Чтобы добиться уникальности, недостаточно просто запускать современное программное обеспечение быстрее. Нам также необходимо будет создавать более умные инфункциональные программы. Создание такого продвинутого программного обеспечения требует предварительного научного понимания основ человеческого познания, и мы лишь поверхностно касаемся этого. Эта предварительная потребность в понимании фундаментальной науки о познании - вот где аргументы «близка к сингулярности» не могут нас убедить».
Робот за рулем автомобиля в футуристическом городе.4X-изображение / iStock
Представьте, что вы проходите процедуру, при которой каждый нейрон в вашем мозгу постепенно заменяется функционально эквивалентными электронными компонентами. Допустим, замена происходит по одному нейрону за раз, и при этом в поведении вас ничего не меняется. Со стороны вы по-прежнему остаетесь «собой» даже для самых близких друзей и любимых.
Что случилось бы с вашим сознанием? Будет ли он постепенно исчезать, по одному нейрону за раз? Не исчезнет ли он внезапно после замены какой-то критически важной для сознания частицы в задней части коры головного мозга? Или вы бы просто остались собой, полностью осознавая свой жизненный опыт и разум (и довольный или ужаснувшийся тому, что ваш разум теоретически может быть сохранен навсегда)?
Этот знаменитый мысленный эксперимент с сознанием , предложенный философом Дэвидом Чалмерсом в его статье 1995 года « Отсутствие Qualia, Fading Qualia, Dancing Qualia» , поднимает практически все важные вопросы, возникающие в дебатах о возможности сознания в искусственном интеллекте.
Если перспектива понимания происхождения нашего собственного сознания и сознания других видов является, как скажет вам каждый отдельный человек, изучающий ее, устрашающей, то воспроизвести ее на машинах - это до абсурда амбициозная задача.
«Создание такого продвинутого программного обеспечения требует предварительного научного понимания основ человеческого познания, и мы лишь поверхностно касаемся этого».
Будет ли ИИ когда-нибудь сознательным? Как и в случае со всеми вещами, связанными с сознанием, ответ заключается в том, что на данный момент никто не знает, и многие думают, что для нас может быть объективно невозможно понять, проявляется ли когда-либо явление гибкости в машине.
Возьмите только что описанный мысленный эксперимент. Если сознание является уникальной характеристикой биологических систем, то даже если бы роботизированная замена вашего мозга позволила вам функционировать точно так же, как и до процедуры, внутри не будет никого дома, и вы будете зомби-оболочка вашего бывшего я. У самых близких есть все основания принять ваше сознание как данность, но они ошибаются.
Возможность того, что мы можем ошибочно сделать вывод о сознании на основе внешнего поведения, не является абсурдным. Вполне возможно, что, как только нам удастся создать общий искусственный интеллект - такого рода, который не является узким, как все, что существует сейчас, - который может адаптироваться, учиться и применять себя в широком диапазоне контекстов, технология будет ощущаться для нас осознанной, независимо от того, есть это на самом деле или нет.
Представьте себе своего рода Alexa или Siri на стероидах, программу, с которой вы можете общаться, которая, как любой человек, умеет общаться с разнообразной интонацией и творческим умом. Граница быстро размывается.
Источник: Маркус Списке / Unsplash
Тем не менее, для ИИ может быть не обязательно, нежелательно или даже невозможно достичь или проявить какое-либо сознание.
Макс Тегмарк, профессор физики Массачусетского технологического института и президент Института будущего жизни, сетует: «Если вы скажете «слово на букву С» исследователю ИИ, нейробиологу или психологу, они могут закатить глаза. Если они ваши наставник, они могут вместо этого сжалиться над вами и попытаться отговорить вас от траты времени на то, что они считают безнадежной и ненаучной проблемой ».
Это разумная, если не сказать слегка пренебрежительная позиция. Зачем вообще принимать во внимание проблему сознания? Технические титаны, такие как Google и IBM , уже добились впечатляющих успехов в создании алгоритмов самообучения, которые могут обогнать и опередить (хотя и в строго определенных обстоятельствах) любой человеческий мозг, а также программы глубокого обучения в области медицины. превосходящие врачи в некоторых областях выявления опухолей и оценки анализов крови. Эти технологии, хотя и не идеальны, работают хорошо, и они только улучшаются в том, что делают.
Дуглас Хофштадтер, первый феноменолог, написавший получившую Пулитцеровскую премию книгу « Гедель, Эшер, Бах: вечная золотая коса» , - один из тех, кто считает, что нам есть о чëм беспокоиться, и на то есть веские причины.
«Человеческий сознание - удивительное, тонкое и малоизученное явление. Нет опасности в том, что мы можем воссоздать его в ближайшее время ».
В интервью The Atlantic в 2013 году Хофштадтер объясняет свою веру в то, что мы в значительной степени упускаем из виду суть, если не принимаем во внимание такие вещи, как природа сознательного интеллекта. Ссылаясь на Deep Blue, известную шахматную программу, разработанную IBM, которая победила Гэри Каспарова в 1997 году, он говорит:
«Хорошо, [...] Deep Blue играет в очень хорошие шахматы - ну и что? Это что-то говорит вам о том, как мы играем в шахматы? Нет. Это говорит вам о том, как Каспаров видит и понимает шахматную доску? »
Точка зрения Хофштадтера очень важна. Если эти сверхспособные алгоритмы не построены на правильном понимании нашего собственного разума, которое их информирует, понимании, которое все еще находится на начальной стадии, как мы можем узнать, достигают ли они сознательного интеллекта? Что еще более важно, без четкого понимания феномена сознания, создаст ли эта технология в будущем больше проблем, чем решит?
Источник: Харрисон Бродбент / Unsplash
В книге «Искусственный интеллект: руководство для мыслящих людей» Мелани Митчелл, бывшая аспирантка Хофштадтера, описывает страх перед безрассудным развитием ИИ, который ее наставник однажды выразил в комнате, полной инженеров Google, на встрече 2014 года в штаб-квартире компании в Маунтинвью. Калифорния.
«Мне очень страшно, очень тревожно, очень грустно, и я нахожу ужасным, ужасающим, причудливым, сбивающим с толку, сбивающим с толку, что люди слепо и безумно мчатся вперед, создавая эти вещи».
Когда это изрядное количество сомнительных прилагательных, которые можно связать вместе, исходит от кого-то кто разбирается в этом, по словам философа Дэниэла Деннета, лучше, чем кто-либо другой в изучении психических явлений, это заставляет вас оценить потенциальную серьезность того, что поставлено на карту.
Сознательный ИИ: не при нашей жизни
Хотя на каком-то уровне опасения Хофштадтерса вполне обоснованы, другие, такие как Митч Капор, предприниматель и соучредитель Electronic Frontier Foundation и Mozilla, считают, что нам пока не следует впадать в панику. Выступая на Vanity Fair в 2014 году, Капор предупреждает:
«Человеческий интеллект - удивительное, тонкое и малоизученное явление. Нет опасности в тм, что мы можем его воссоздать в ближайшее время ».
Тегмарк называет «техноскептиками» тех, кто чувствует, как Капор, что до AGI еще несколько сотен лет. Среди членов этой группы - Родни Брукс, бывший профессор Массачусетского технологического института и изобретатель робота-пылесоса Roomba, и Эндрю Нг, бывший главный научный сотрудник Baidu, китайской компании Google, который, по словам Тегмарка, сказал:
«Роботы - это все равно, что беспокоиться о перенаселенности Марса».
«Эксперты считают, что системы искусственного интеллекта, вероятно (более 50%) достигнут общих человеческих возможностей к 2040–2050 гг. И очень вероятно (с вероятностью 90%) к 2075г.».
Это может показаться преувеличением, но примите во внимание тот факт, что не существует программного обеспечения, которое даже близко могло бы конкурировать с мозгом с точки зрения общих вычислительных возможностей.
Перед своей смертью в 2018 году Пол Аллен, соучредитель Microsoft и основатель Allen Institute for Brain Science, вместе с Марком Гривсом написал в MIT Technology Review, что достижение сингулярности (точки, в которой технологии развиваются за пределы человеческих возможностей контролировать, прогнозировать, или понимать) потребует гораздо больше, чем просто проектирование все более компетентных машин:
«Чтобы добиться уникальности, недостаточно просто запускать современное программное обеспечение быстрее. Нам также необходимо будет создавать более умные и функциональные программы. Создание такого продвинутого программного обеспечения требует предварительного научного понимания основ человеческого познания, и мы лишь поверхностно касаемся этого. Эта предварительная потребность в понимании фундаментальной науки о познании - вот где аргументы «близка к сингулярности» не могут нас убедить ».
Единомышленники, такие как Навин Джоши, сооснователь Allerin, компании, занимающейся большими данными и машинным обучением, утверждают, что мы стремительно отдаляем себя от создания AGI. Однако, как он признает в статье в Forbes , быстрые темпы нашего развития ИИ могут легко изменить его мнение.
Это на гор-ИИ-зонте
Безусловно, чаша весов склоняется в пользу тех, кто считает, что AGI будет достигнут до конца этого века. В 2013 году Ник Бостром из Оксфордского университета и Винсент Мюллер из Европейского общества когнитивных систем опубликовали в журнале Fundamental Issues of Artificial Intelligence обзор, в котором оценивалось мнение экспертов в области искусственного интеллекта относительно сроков, в которые технология может достичь уровня, подобного человеческому.
В отчете отражено «мнение экспертов о том, что системы искусственного интеллекта, вероятно (более 50%) достигнут общих человеческих возможностей к 2040–2050 годам, и очень вероятно (с вероятностью 90%) к 2075 году».
«Быстрый прогресс в ближайшие десятилетия приведет к появлению машин с интеллектом человеческого уровня, способных говорить и рассуждать, с несметным вкладом в экономику, политику и, неизбежно, военное искусство».
Футурист Рэй Курцвейл, ученый-компьютерщик, стоящий за технологиями синтезатора музыки и преобразования текста в речь, также верит в быстрое приближение к сингулярности. Курцвейл настолько уверен в скорости этого развития, что даже делает ставки на свои предсказания. Он ставит 10000 долларов на то, что машинный интеллект сможет пройти тест Тьюринга, задача которого заключается сводится к тому, сможет ли компьютер обмануть человека-судью, заставив его думать, что он сам является человеком, к 2029 году.
Вскоре после этого, по мнению Курцвейла, человечество сольется с созданной им технологией, загрузив наши умы в облако. Каким бы замечательным ни был этот оптимизм, это кажется маловероятным, учитывая наше новое понимание мозга и его отношения к сознанию.
Кристоф Кох, один из первых сторонников стремления к выявлению физических коррелятов сознания, придерживается более обоснованного подхода, сохраняя при этом некоторый оптимизм в отношении появления человеческого ИИ в ближайшем будущем. В своей статье для Scientific American в 2019 году он говорит: «Быстрый прогресс в ближайшие десятилетия приведет к появлению машин с человеческим интеллектом, способными говорить и рассуждать, с огромным вкладом в экономику, политику и, неизбежно, военное искусство».
Источник: Posaged Photography / Unsplash
Кох также является одним из соавторов «теории интеграции информации сознания» нейробиолога Гилио Тонони. По словам Тегмарка, теория утверждает, что «сознание - это то, как информация воспринимается, когда обрабатывается определенными сложными способами». IIT утверждает, что сознание любой системы можно оценить с помощью метрики (или Phi), математической меры, детализирующей, сколько причинной силы присуще этой системе.
В книге Коха «В поисках сознания: нейробиологический подход» Кох приравнивает фи к степени, в которой система является «больше, чем сумма ее частей». Он утверждает, что фи может быть свойством любого объекта, биологического или небиологического.
По сути, эта мера может использоваться для обозначения того, насколько внутренняя работа системы осведомлена о другой внутренней работе этой системы. Если 𝚽 равно 0, то такой осведомленности нет, и система ничего не чувствует.
Конечно, это одна из многих теорий, но она примечательна попыткой математической измеримости, помогающей сделать нематериальное ощущение сознания чем-то осязаемым. Если это будет доказано, то это по существу исключит возможность того, что машины могут находятся в сознании, о чем Тонони подробно рассказывает в интервью BBC :
«Если теория интегрированной информации верна, компьютеры могли бы вести себя точно так же, как мы с вами - действительно, вы [даже] могли бы [даже] иметь возможность вести с ними разговор, который был бы столь же полезен или более полезен, чем с вами или мной - и все же буквально никого там не быть».
Оптимизм (человеческий)
Переплетение сознания и искусственного интеллекта представляет собой нечто вроде цивилизационного акта балансировки. Возможно, нет других областей научных исследований, в которых мы так быстро развиваемся, имея так мало представления о том, что мы потенциально делаем.
«Посвящение 100% своих усилий предотвращению болезней и несчастных случаев - отличный рецепт для ипохондрии и паранойи, а не счастья».
Если нам удастся, намеренно или случайно, создать машины, которые воспринимают мир субъективно, этические последствия этого будут огромными. Это также станет переломным моментом для нашего вида в понимании того, что значит создание новой жизни. Мы поступим правильно, если начнем подходить к этому вопросу более серьезно в не зависимости от того, как скоро это произойдет.
В любом случае, может быть имеет смысл подумать об этих проблемах с меньшим страхом и более осторожным оптимизмом. Это именно тот тон, который использует Тегмарк в конце своей книги, в которой он предлагает следующую аналогию:
«Когда студенты Массачусетского технологического института приходят ко мне в офис за советом по вопросам карьеры, я обычно начинаю с того, что спрашиваю их, где они видят себя через десять лет. Если бы студентка ответила: «Возможно, я буду в онкологическом отделении или попаду на кладбище после того, как меня собъет автобус», я бы предостерег еë от 100% усилий в еë стремлени избежать болезни и несчастного случая. Стремление к этому - это отличный рецепт ипохондрии и паранойи, а не счастья».
Какую бы форму ни принял ум AGI, он будет зависеть от нашего собственного, отражать его в себе. Кажется, что сейчас идеальное время для человечества, чтобы сделать приоритетным проект коллективной разработки дорогих нам моральных и этических принципов. Это будет не только поучительно в отношении того, как нам стоит относиться друг к другу с достоинством, но и поможет обеспечить разумный искусственный интеллект подобными навыками, когда его создание станет возможным.
Эрик Джеймс Бейнер 17 апреля 2021
Комментарии
Конда-нибудь обретет. Но конда?
Никогда.
На языке оригинала правильнее будет - "никонда."
Быстро читаете однако..
Где-то тут была более объемная статистика по этому вопросу. Если надо, могу посмотреть..
Но мне больше нравится ответ: "когда сами этого захотим"
Эксперды и на бирже считают что все отлично,
только на аш вот по биткоину и ковидле сколько экспердов
Поэтому и призываю всех иметь свою точку зрения на интересующие вопросы. Тоже уже давно "экспертам" не доверяю...
Путину не нужны советники по вопросам обретения сознания ИИ. В отличии от этих дураков Путин прекрасно знает, что обретение сознания ИИ - это бред.
Посмотрел ролик, но вывод который у вас получился у меня почему-то не получился.. Видимо у нас по разному фантазия работает
Ну хоть капельку не машинного перевода?
Ну почему не взять английский оригинал horizon "Hor-AI-zon" и перевести как переделку слова горизонт в гор-ИИ-зонт.. и звучит лучше и сразу понятно о чем речь.
Гугл перевёл как гор-ай-зонт.. ) Сейчас поправлю
заголовок то исправили бы...
Спасиб . Сейчас поправлю.
Интересное интервью посмотрела вчера
Татьяна Черниговская. Кто о ней не слышал, сообщаю ))) -
Советский и российский учёный в области нейронауки и психолингвистики, а также теории сознания. Доктор биологических наук, доктор филологических наук, член-корреспондент РАО. Заслуженный деятель высшего образования и Заслуженный деятель науки РФ. Профессор кафедры общего языкознания СПбГУ, заведующая лабораторией когнитивных исследований и кафедрой проблем конвергенции естественных и гуманитарных наук СПбГУ.
Да, в России она у нас в основном эту тему озвучивает. Судя по еë популярности, тема очень животрепещущая.. Имхо можно выводить еë за рамки социальных сетей и студенческой аудитории
С большим опасением она относится к созданию ИИ наделенного сознанием и видит в этом многие опасности для человека. И постоянно озвучивает вопрос - ЗАЧЕМ?
Хороший вопрос, здравые опасения.. Но вопрос развития технологий ИИ уже давно вне рамок контроля ситуации, поэтому нужно решать его с обратной стороны.. А для того чтобы его решить нужно иметь четкое представление что такое сознание.
Никто не будет останавливаться. Все будут гнать вперёд, в стиле поздних серий терминатора, просто боясь отстать от конкурентов. Так что не исключён вариант объединения нейросетей, тех, которые с датчиками и тех, которые просто с интернетом общаются и внезапного рождения сознания.
Во всяком случае для перевода с корейского на японский, ЕМНИП, нейросеть создала собственный промежуточный язык, ибо так оказалось проще. Исследователи не сразу допёрли, что было сделано нейросетью.
О том и речь.. Это как неуправляемая ядерная реакция. Невозможно просто взять и запретить разработку в этой области.
По поводу сознания тоже согласен: переход из бессознательного состояния в сознательное - это квантовый скачок. В теории этот момент может случится как некое спонтанное явление.
В 2017 году проскакивала подобная новость.
Суть в том, что человеческий фактор имеет место быть..
Компьютеры быстро прогрессируют. Объединить ТАКИЕ компьютеры в сеть куда проще, чем несколько тысяч или десятков тысяч на длинных линиях связи. Я имею в виду с сохранением какого-никакого быстродействия.
Наше будущее во многом будет зависеть от софта, который будет писаться под подобные системы...
О возможном развитии событий фантазировал Тим Урбан в своë время.
Вопрос в формулировке "одурачить" очень хорошо отображает собой подход к постановке задачи
у Тьюринга - задачей компьютера является притвориться женщиной !!!(Если, по словам Тьюринга, «ведущий беседу игрок после проведения игры [с участием компьютера] выносит неверное решение так же часто, как и после проведения игры с участием мужчины и женщины», то можно говорить о том, что компьютер разумен.)
говорить можно все, но от этого компьютер разумным не станет. Это просто будет комп, прошедший тест Тьюринга
Общепринятого критерия разумности по-прежнему нет. Даже с тестом IQ и то нет ясности.
Имхо, ТТ - это изврат и формализм, закомпостировал только всем мозги (похоже Тьюринг этот был гомогеем не только в хорошем смысле). Если функционал системы определяется системой формул - это автомат, откуда там разум?
Чем обучение нейросети отличается принципиально от интерполяции допустим функции многочленами? Да ничем, и там и там просто настройка суперпозиции элементарных функций.
МОСКВА, 15 апр - РИА Новости. Коллекторское агентство Сбербанка "АБК" внедрило технологию, которая помогает сотрудникам определить правдивость ответов должников при общении, сообщил гендиректор компании Дмитрий Теплицкий.
"Голосовой скоринг - это фактически набор метрик, набор моделей, которые научились в рамках свободного диалога с клиентом предсказывать, вводит в заблуждение клиент или не вводит, обманывает или не обманывает. Мы научились предсказывать... по полу, по возрасту, по интонациям с применением метрик эмоций, если человек обещает оплатить задолженность, он действительно ее оплатит или все-таки вводит в заблуждение, пытается отсрочить срок погашения задолженности и не хочет договариваться", - рассказал он в ходе конференции "Цифровая трансформация взыскания".
Эксперимент начался 1,5-2 года назад, а точность определения правдивости ответов клиента у модели в настоящее время составляет около 76%.
"Мы пошли дальше с этой технологией. Где можно применить этот "детектор лжи"? Да в принципе во всех сферах деятельности. Сейчас мы экспериментируем в рамках проектах HR-платформы - проводим собеседования с кандидатами на массовые вакансии и отбираем - там тоже есть шкала от 0 до 100, - этот человек нам больше подходит или меньше, на эти вопросы он отвечает честно или нечестно", - поделился Теплицкий.
Данный робот также может применяться для проверки интереса клиента к какой-либо услуге, добавил он.
Странно, что за подобные разработки частникам ещё по рукам не надавали. При попадании этой технологии в условно-открытый оборот, её моментально подключат к политическим выступлениям, хоть бы и по телевизору. С понятным социально-политическим результатом. Думается эта разработка даже до области отдела кадров не дойдёт, если только ограниченном в области кадровых служб силовых ведомств и то не всех.
все что можно продать - будет продано.
как приложение к телефону (например) - вы записали разговор с некто, и прогнали через прогу.
надо учиться не врать.
Я всё же уверен, что подобная технология к свободному обороту будет запрещена. Слишком опасно для государства в целом и множества сообществ в частности, включая семьи.
Вам нравится ложь?
При чём здесь нравится или не нравится? Слишком многое в обществе построено на вранье в той или иной степени. Моральность как оценочная категория к технологиям имеет достаточно опосредованное отношение. Оценивается в первую очередь объективный баланс пользы и соответственно вреда.
Это очень важное дополнение
вот там (говорят) после выхода отсюда буде суд, на котором каждый ответит. и получит соответственно.
врут. все будет здесь. запись\наблюдение\алгоритмы\расходы\связи\ложь.
большой брат это не про них, это про нас тут. и он про "заботу о нас", от нас, для нас.
Все верно... Осознание этого момента снимет многие вопросы с повестки дня
Из последнего очень впечатлил голосовой помощник банка Хоум Кредит
Ув. Отсюда!
Скажите пожалуйста, с Вами всё нормально?
Просто количество материалов про ИИ нарастает с катастрофической быстротой.
" Мы не хотим в живой уголок! Мы хотим в пионеры." (с)
От искуственного сознания, до оцифровки личности, гораздо меньше одного шага. Соответственно вопрос ИИ это вопрос бессмертия. Своеобразный поиск философского камня. Подобные темы всегда людей волновали.
Имхо, это будет фиаско..
Сложно сказать уверенно. Если судить по предыдущим поискам бессмертия, то вы скорее правы. Что сам процесс не делает менее любопытным.
Я думаю у людей будет выбор.. Хотелось бы, по крайней мере :)
Если рассуждать с философской точки зрения, то для чего человеку бессмертие? Ну покайфовал на всю катушку. Добился всего, чего хотел, все радости и горести этой жизни испытал, а дальше что? А дальше у любого Бессмертного будет только одно желание.. Желание умереть. Либо он сделает так, чтобы накопленный опыт забывался...
Так может быть, мы уже в этом плане давно бессмертны? просто это еще за рамками нашего понимания
Все под контролем.. :) клин-клином вышибают... разумный ии - это неизбежность. Вопрос тут в том, каким характером он будет обладать.
Темы очень взаимосвязанные.. Дуализм ИИ/Человек тоже имеет место быть... По мне так мешать нас в одно целое не стóит.
количество материалов про ИИ нарастает с катастрофической быстротой
Проходили уже, 30 лет назад. Как сейчас помню. Второй бум нейросетей оказался пшиком.
С третьим - текущим будет то-же самое.
Ну классификаторы, ну распознавание текстов, речи, эмоций. Ну автоматизированное вождение, автопилоты всякие.
Всё равно итогом усилий вновь окажется дрон-самоубийца, для остального - слишком дорого.
Всегда вопрос теоретических изысканий упирается в вопрос практической применимости.
нету никакого ИИ на горизонте. Это всё тупые алгоритмы, которые пишут тупые нынешние кодеры. Пользы никакой.
А как же Яндекс навигатор и Яндекс карты? )
А ИИ то там причем ?
Чтобы нормально продолжать разговор, наверное стоит вспомнить его классификацию.
По факту там есть нейросетки на распознавание адреса с речи и вероятного расчета пробок. Такой себе ИИ
Согласен
Страницы