Призрак в доспехах: обретет ли ИИ когда-нибудь сознание?

Аватар пользователя Отсюда

По мере того, как общество приближается к ИИ человеческого уровня, ученые спорят о том, что значит существовать.

«Чтобы добиться уникальности, недостаточно просто запускать современное программное обеспечение быстрее. Нам также необходимо будет создавать более умные инфункциональные программы. Создание такого продвинутого программного обеспечения требует предварительного научного понимания основ человеческого познания, и мы лишь поверхностно касаемся этого. Эта предварительная потребность в понимании фундаментальной науки о познании - вот где аргументы «близка к сингулярности» не могут нас убедить».

 ​Призрак в доспехах: будет ли когда-нибудь ИИ в сознании?

Робот за рулем автомобиля в футуристическом городе.4X-изображение / iStock

Представьте, что вы проходите процедуру, при которой каждый нейрон в вашем мозгу постепенно заменяется функционально эквивалентными электронными компонентами. Допустим, замена происходит по одному нейрону за раз, и при этом в поведении вас ничего не меняется. Со стороны вы по-прежнему остаетесь «собой» даже для самых близких друзей и любимых. 

Что случилось бы с вашим сознанием? Будет ли он постепенно исчезать, по одному нейрону за раз? Не исчезнет ли он внезапно после замены какой-то критически важной для сознания частицы в задней части коры головного мозга? Или вы бы просто остались собой, полностью осознавая свой жизненный опыт и разум (и довольный или ужаснувшийся тому, что ваш разум теоретически может быть сохранен навсегда)? 

Этот знаменитый мысленный эксперимент с сознанием , предложенный философом Дэвидом Чалмерсом в его статье 1995 года « Отсутствие Qualia, Fading Qualia, Dancing Qualia» , поднимает практически все важные вопросы, возникающие в дебатах о возможности сознания в искусственном интеллекте. 

Если перспектива понимания происхождения нашего собственного сознания и сознания других видов является, как скажет вам каждый отдельный человек, изучающий ее, устрашающей, то воспроизвести ее на машинах - это до абсурда амбициозная задача. 

«Создание такого продвинутого программного обеспечения требует предварительного научного понимания основ человеческого познания, и мы лишь поверхностно касаемся этого».


Будет ли ИИ когда-нибудь сознательным? Как и в случае со всеми вещами, связанными с сознанием, ответ заключается в том, что на данный момент никто не знает, и многие думают, что для нас может быть объективно невозможно понять, проявляется ли когда-либо явление гибкости в машине. 

Возьмите только что описанный мысленный эксперимент. Если сознание является уникальной характеристикой биологических систем, то даже если бы роботизированная замена вашего мозга позволила вам функционировать точно так же, как и до процедуры, внутри не будет никого дома, и вы будете зомби-оболочка вашего бывшего я. У самых близких есть все основания принять ваше сознание как данность, но они ошибаются. 

Возможность того, что мы можем ошибочно сделать вывод о сознании на основе внешнего поведения, не является абсурдным. Вполне возможно, что, как только нам удастся создать общий искусственный интеллект - такого рода, который не является узким, как все, что существует сейчас, - который может адаптироваться, учиться и применять себя в широком диапазоне контекстов, технология будет ощущаться для нас осознанной, независимо от того, есть это на самом деле или нет.

Представьте себе своего рода Alexa или Siri на стероидах, программу, с которой вы можете общаться, которая, как любой человек, умеет общаться с разнообразной интонацией и творческим умом. Граница быстро размывается.

Строки кода подсвечивают экран компьютера красным, белым, желтым и зеленым светом.

Источник: Маркус Списке / Unsplash

Тем не менее, для ИИ может быть не обязательно, нежелательно или даже невозможно достичь или проявить какое-либо сознание.

Макс Тегмарк, профессор физики Массачусетского технологического института и президент Института будущего жизни, сетует: «Если вы скажете «слово на букву С» исследователю ИИ, нейробиологу или психологу, они могут закатить глаза. Если они ваши наставник, они могут вместо этого сжалиться над вами и попытаться отговорить вас от траты времени на то, что они считают безнадежной и ненаучной проблемой ».

Это разумная, если не сказать слегка пренебрежительная позиция. Зачем вообще принимать во внимание проблему сознания? Технические титаны, такие как Google и IBM , уже добились впечатляющих успехов в создании алгоритмов самообучения, которые могут обогнать и опередить (хотя и в строго определенных обстоятельствах) любой человеческий мозг, а также программы глубокого обучения в области медицины. превосходящие врачи в некоторых областях выявления опухолей и оценки анализов крови. Эти технологии, хотя и не идеальны, работают хорошо, и они только улучшаются в том, что делают. 

Дуглас Хофштадтер, первый феноменолог, написавший получившую Пулитцеровскую премию книгу « Гедель, Эшер, Бах: вечная золотая коса» , - один из тех, кто считает, что нам есть о чëм беспокоиться, и на то есть веские причины. 

«Человеческий сознание - удивительное, тонкое и малоизученное явление. Нет опасности в том, что мы можем воссоздать его в ближайшее время ».


В интервью The Atlantic в 2013 году Хофштадтер объясняет свою веру в то, что мы в значительной степени упускаем из виду суть, если не принимаем во внимание такие вещи, как природа сознательного интеллекта. Ссылаясь на Deep Blue, известную шахматную программу, разработанную IBM, которая победила Гэри Каспарова в 1997 году, он говорит:

«Хорошо, [...] Deep Blue играет в очень хорошие шахматы - ну и что? Это что-то говорит вам о том, как мы играем в шахматы? Нет. Это говорит вам о том, как Каспаров видит и понимает шахматную доску? »

Точка зрения Хофштадтера очень важна. Если эти сверхспособные алгоритмы не построены на правильном понимании нашего собственного разума, которое их информирует, понимании, которое все еще находится на начальной стадии, как мы можем узнать, достигают ли они сознательного интеллекта? Что еще более важно, без четкого понимания феномена сознания, создаст ли эта технология в будущем больше проблем, чем решит?

Микрочип находится на синей плате.

Источник: Харрисон Бродбент / Unsplash

В книге «Искусственный интеллект: руководство для мыслящих людей» Мелани Митчелл, бывшая аспирантка Хофштадтера, описывает страх перед безрассудным развитием ИИ, который ее наставник однажды выразил в комнате, полной инженеров Google, на встрече 2014 года в штаб-квартире компании в Маунтинвью. Калифорния.

«Мне очень страшно, очень тревожно, очень грустно, и я нахожу ужасным, ужасающим, причудливым, сбивающим с толку, сбивающим с толку, что люди слепо и безумно мчатся вперед, создавая эти вещи». 

Когда это изрядное количество сомнительных прилагательных, которые можно связать вместе, исходит от кого-то кто разбирается в этом, по словам философа Дэниэла Деннета, лучше, чем кто-либо другой в изучении психических явлений, это заставляет вас оценить потенциальную серьезность того, что поставлено на карту. 

 

Сознательный ИИ: не при нашей жизни

Хотя на каком-то уровне опасения Хофштадтерса вполне обоснованы, другие, такие как Митч Капор, предприниматель и соучредитель Electronic Frontier Foundation и Mozilla, считают, что нам пока не следует впадать в панику. Выступая на Vanity Fair в 2014 году, Капор предупреждает:

«Человеческий интеллект - удивительное, тонкое и малоизученное явление. Нет опасности в тм, что мы можем его воссоздать в ближайшее время ».

Тегмарк называет «техноскептиками» тех, кто чувствует, как Капор, что до AGI еще несколько сотен лет. Среди членов этой группы - Родни Брукс, бывший профессор Массачусетского технологического института и изобретатель робота-пылесоса Roomba, и Эндрю Нг, бывший главный научный сотрудник Baidu, китайской компании Google, который, по словам Тегмарка, сказал:

«Роботы - это все равно, что беспокоиться о перенаселенности Марса». 

 

«Эксперты считают, что системы искусственного интеллекта, вероятно (более 50%) достигнут общих человеческих возможностей к 2040–2050 гг. И очень вероятно (с вероятностью 90%) к 2075г.». 


Это может показаться преувеличением, но примите во внимание тот факт, что не существует программного обеспечения, которое даже близко могло бы конкурировать с мозгом с точки зрения общих вычислительных возможностей.

Перед своей смертью в 2018 году Пол Аллен, соучредитель Microsoft и основатель Allen Institute for Brain Science, вместе с Марком Гривсом написал в MIT Technology Review, что достижение сингулярности (точки, в которой технологии развиваются за пределы человеческих возможностей контролировать, прогнозировать, или понимать) потребует гораздо больше, чем просто проектирование все более компетентных машин:

«Чтобы добиться уникальности, недостаточно просто запускать современное программное обеспечение быстрее. Нам также необходимо будет создавать более умные и функциональные программы. Создание такого продвинутого программного обеспечения требует предварительного научного понимания основ человеческого познания, и мы лишь поверхностно касаемся этого. Эта предварительная потребность в понимании фундаментальной науки о познании - вот где аргументы «близка к сингулярности» не могут нас убедить ». 

Единомышленники, такие как Навин Джоши, сооснователь Allerin, компании, занимающейся большими данными и машинным обучением, утверждают, что мы стремительно отдаляем себя от создания AGI. Однако, как он признает в статье в  Forbes , быстрые темпы нашего развития ИИ могут легко изменить его мнение. 

 

Это на гор-ИИ-зонте 

Безусловно, чаша весов склоняется в пользу тех, кто считает, что AGI будет достигнут до конца этого века. В 2013 году Ник Бостром из Оксфордского университета и Винсент Мюллер из Европейского общества когнитивных систем опубликовали в журнале Fundamental Issues of Artificial Intelligence обзор, в котором оценивалось мнение экспертов в области искусственного интеллекта относительно сроков, в которые технология может достичь уровня, подобного человеческому. 

В отчете отражено «мнение экспертов о том, что системы искусственного интеллекта, вероятно (более 50%) достигнут общих человеческих возможностей к 2040–2050 годам, и очень вероятно (с вероятностью 90%) к 2075 году». 

«Быстрый прогресс в ближайшие десятилетия приведет к появлению машин с интеллектом человеческого уровня, способных говорить и рассуждать, с несметным вкладом в экономику, политику и, неизбежно, военное искусство».


Футурист Рэй Курцвейл, ученый-компьютерщик, стоящий за технологиями синтезатора музыки и преобразования текста в речь, также верит в быстрое приближение к сингулярности. Курцвейл настолько уверен в скорости этого развития, что даже делает ставки на свои предсказания. Он ставит 10000 долларов на  то, что машинный интеллект сможет пройти тест Тьюринга, задача которого заключается сводится к тому, сможет ли компьютер обмануть человека-судью, заставив его думать, что он сам является человеком, к 2029 году.

Вскоре после этого, по мнению Курцвейла, человечество сольется с созданной им технологией, загрузив наши умы в облако. Каким бы замечательным ни был этот оптимизм, это кажется маловероятным, учитывая наше новое понимание мозга и его отношения к сознанию.

Кристоф Кох, один из первых сторонников стремления к выявлению физических коррелятов сознания, придерживается более обоснованного подхода, сохраняя при этом некоторый оптимизм в отношении появления человеческого ИИ в ближайшем будущем. В своей статье для Scientific American в 2019 году он говорит: «Быстрый прогресс в ближайшие десятилетия приведет к появлению машин с человеческим интеллектом, способными говорить и рассуждать, с огромным вкладом в экономику, политику и, неизбежно, военное искусство».

Робот с черным монитором на лице.

Источник: Posaged Photography / Unsplash

Кох также является одним из соавторов «теории интеграции информации сознания» нейробиолога Гилио Тонони. По словам Тегмарка, теория утверждает, что «сознание - это то, как информация воспринимается, когда обрабатывается определенными сложными способами». IIT утверждает, что сознание любой системы можно оценить с помощью метрики (или Phi), математической меры, детализирующей, сколько причинной силы присуще этой системе.

В книге Коха «В поисках сознания: нейробиологический подход» Кох приравнивает  фи  к степени, в которой система является «больше, чем сумма ее частей». Он утверждает, что фи может быть свойством любого объекта, биологического или небиологического. 

По сути, эта мера может использоваться для обозначения того, насколько внутренняя работа системы осведомлена о другой внутренней работе этой системы. Если 𝚽 равно 0, то такой осведомленности нет, и система ничего не чувствует. 

Конечно, это одна из многих теорий, но она примечательна попыткой математической измеримости, помогающей сделать нематериальное ощущение сознания чем-то осязаемым. Если это будет доказано, то это по существу исключит возможность того, что машины могут находятся в сознании, о чем Тонони подробно рассказывает в интервью BBC : 

«Если теория интегрированной информации верна, компьютеры могли бы вести себя точно так же, как мы с вами - действительно, вы [даже] могли бы [даже] иметь возможность вести с ними разговор, который был бы столь же полезен или более полезен, чем с вами или мной - и все же буквально никого там не быть».

 

Оптимизм (человеческий)

Переплетение сознания и искусственного интеллекта представляет собой нечто вроде цивилизационного акта балансировки. Возможно, нет других областей научных исследований, в которых мы так быстро развиваемся, имея так мало представления о том, что мы потенциально делаем. 

«Посвящение 100% своих усилий предотвращению болезней и несчастных случаев - отличный рецепт для ипохондрии и паранойи, а не счастья». 


Если нам удастся, намеренно или случайно, создать машины, которые воспринимают мир субъективно, этические последствия этого будут огромными. Это также станет переломным моментом для нашего вида в понимании того, что значит создание новой жизни. Мы поступим правильно, если начнем подходить к этому вопросу более серьезно в не зависимости от того, как скоро это произойдет. 

В любом случае, может быть имеет смысл подумать об этих проблемах с меньшим страхом и более осторожным оптимизмом. Это именно тот тон, который использует Тегмарк в конце своей книги, в которой он предлагает следующую аналогию:

«Когда студенты Массачусетского технологического института приходят ко мне в офис за советом по вопросам карьеры, я обычно начинаю с того, что спрашиваю их, где они видят себя через десять лет. Если бы студентка ответила: «Возможно, я буду в онкологическом отделении или попаду на кладбище после того, как меня собъет автобус», я бы предостерег еë от  100% усилий в еë стремлени избежать болезни и несчастного случая. Стремление к этому - это отличный рецепт ипохондрии и паранойи, а не счастья».

Какую бы форму ни принял ум AGI, он будет зависеть от нашего собственного, отражать его в себе. Кажется, что сейчас идеальное время для человечества, чтобы сделать приоритетным проект коллективной разработки дорогих нам моральных и этических принципов. Это будет не только поучительно в отношении того, как  нам стоит относиться друг к другу с достоинством, но и поможет обеспечить разумный искусственный интеллект подобными навыками, когда его создание станет возможным. 

Эрик Джеймс Бейнер 17 апреля 2021

Авторство: 
Копия чужих материалов
Комментарий автора: 

Первый раз на моей памяти сталкиваюсь с подобной точкой зрения оттуда... Растут чертяки :) Очень качественный материал и уровень понимания проблемы. Не иначе как АШ почитывают :))) Мой респект и уважуха товарищу автору. Если бы был советником президента, то обязательно бы посоветовал ему взять этот вопрос под своë начало. Потому как именно русские, как никто другой, близки к пониманию и решению этой задачизадачи в силу совокупности множества околообстоятельств. 

Задача эта мирового масштаба, и если уж мы и претендуем на какое-то доминирование в этой вселенной, то и глобальные задачи перед человечеством нужно учиться ставить. Выходить, так сказать, за рамки предыдущего опыта.. 

...пока есть такая возможность. 

Комментарии

Аватар пользователя АЧТ
АЧТ(8 лет 1 неделя)

Конда-нибудь обретет. Но конда?smile1.gif

Аватар пользователя Франсуа Фийон

Никогда.

Комментарий администрации:  
*** Уличен в дешевых набросах ***
Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

На языке оригинала правильнее будет - "никонда."

Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

Быстро читаете однако.. 

«Эксперты считают, что системы искусственного интеллекта, вероятно (более 50%) достигнут общих человеческих возможностей к 2040–2050 гг. И очень вероятно (с вероятностью 90%) к 2075г.».

Где-то тут была более объемная статистика по  этому вопросу. Если надо, могу посмотреть.. 

Но мне больше нравится ответ: "когда сами этого захотим"

Аватар пользователя Анонимов
Анонимов(3 года 8 месяцев)

Эксперты считают

Эксперды и на бирже считают что все отлично,

только на аш вот по биткоину и ковидле сколько экспердов

Комментарий администрации:  
*** Отключен (набросы, троллизм) ***
Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

Поэтому и призываю всех иметь свою точку зрения на интересующие вопросы. Тоже уже давно "экспертам" не доверяю... 

Аватар пользователя Франсуа Фийон
Франсуа Фийон(7 лет 7 месяцев)

Путину не нужны советники по вопросам обретения сознания ИИ. В отличии от этих дураков Путин прекрасно знает, что обретение сознания ИИ - это бред.

 

Комментарий администрации:  
*** Уличен в дешевых набросах ***
Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

Посмотрел ролик, но вывод который у вас получился у меня почему-то не получился.. Видимо у нас по разному фантазия работает 

Аватар пользователя sixwinged
sixwinged(11 лет 5 месяцев)

Ну хоть капельку не машинного перевода?

Ну почему не взять английский оригинал horizon "Hor-AI-zon" и перевести как переделку слова горизонт в гор-ИИ-зонт.. и звучит лучше и сразу понятно о чем речь.

 

Скрытый комментарий Отсюда (c обсуждением)
Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

Гугл перевёл как гор-ай-зонт.. ) Сейчас поправлю 

Аватар пользователя kredo
kredo(6 лет 2 месяца)

заголовок то исправили бы...

Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

Спасиб smile173.gif. Сейчас поправлю. 

Аватар пользователя Olga-Nina
Olga-Nina(6 лет 4 месяца)

Интересное интервью посмотрела вчера

Татьяна Черниговская. Кто о ней не слышал, сообщаю ))) -

Советский и российский учёный в области нейронауки и психолингвистики, а также теории сознания. Доктор биологических наук, доктор филологических наук, член-корреспондент РАО. Заслуженный деятель высшего образования и Заслуженный деятель науки РФ. Профессор кафедры общего языкознания СПбГУ, заведующая лабораторией когнитивных исследований и кафедрой проблем конвергенции естественных и гуманитарных наук СПбГУ.

 

Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

Да, в России она у нас в основном эту тему озвучивает. Судя по еë популярности, тема очень животрепещущая.. Имхо можно выводить еë за рамки социальных сетей и студенческой аудитории

Аватар пользователя Olga-Nina
Olga-Nina(6 лет 4 месяца)

С большим опасением она относится к созданию ИИ наделенного сознанием и видит в этом многие опасности для человека. И постоянно озвучивает вопрос - ЗАЧЕМ?

Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

Хороший вопрос, здравые опасения..  Но вопрос развития технологий ИИ уже давно вне рамок контроля ситуации, поэтому нужно решать его с обратной стороны.. А для того чтобы его решить нужно иметь четкое представление что такое сознание. 

Аватар пользователя Kozel de Baran
Kozel de Baran(5 лет 10 месяцев)

Никто не будет останавливаться. Все будут гнать вперёд, в стиле поздних серий терминатора, просто боясь отстать от конкурентов. Так что не исключён вариант объединения нейросетей, тех, которые с датчиками и тех, которые просто с интернетом общаются и внезапного рождения сознания.

Во всяком случае для перевода с корейского на японский, ЕМНИП, нейросеть создала собственный промежуточный язык, ибо так оказалось проще. Исследователи не сразу допёрли, что было сделано нейросетью.

 

Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

Никто не будет останавливаться

О том и речь.. Это как неуправляемая ядерная реакция. Невозможно просто взять и запретить разработку в этой области. 

По поводу  сознания тоже согласен: переход из бессознательного состояния в сознательное - это  квантовый скачок. В теории этот момент может случится как некое спонтанное явление.

 Во всяком случае для перевода с корейского на японский, ЕМНИП, нейросеть создала собственный промежуточный язык, ибо так оказалось проще.

В 2017 году проскакивала подобная новость

Суть в том, что человеческий фактор имеет место быть.. 

Аватар пользователя Kozel de Baran
Kozel de Baran(5 лет 10 месяцев)

Компьютеры быстро прогрессируют. Объединить ТАКИЕ компьютеры в сеть куда проще, чем несколько тысяч или десятков тысяч на длинных линиях связи. Я имею в виду с сохранением какого-никакого быстродействия.

Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

Наше будущее во многом будет зависеть от софта, который будет писаться под подобные системы... 

О возможном развитии событий фантазировал Тим Урбан в своë время

Аватар пользователя ильдар
ильдар(10 лет 3 месяца)

Тьюринг, как мы уже знаем, описал простую игру для вечеринок, которая включает в себя минимум трех игроков. Игрок А — мужчина, игрок В — женщина и игрок С, который играет в качестве ведущего беседу, любого пола. По правилам игры С не видит ни А, ни В и может общаться с ними только посредством письменных сообщений. Задавая вопросы игрокам А и В, С пытается определить, кто из них — мужчина, а кто — женщина. Задачей игрока А является запутать игрока С, чтобы он сделал неправильный вывод. В то же время задачей игрока В является помочь игроку С вынести верное суждение.

В той версии, которую С. Г. Стеррет (S. G. Sterret) называет «Первоначальный тест на основе имитационной игры» (Original Imitation Game Test), Тьюринг предлагает, чтобы роль игрока А исполнял компьютер. Таким образом, задачей компьютера является притвориться женщиной, чтобы сбить с толку игрока С. Успешность выполнения подобной задачи оценивается на основе сравнения исходов игры, когда игрок А — компьютер, и исходов, когда игрок А — мужчина. Если, по словам Тьюринга, «ведущий беседу игрок после проведения игры [с участием компьютера] выносит неверное решение так же часто, как и после проведения игры с участием мужчины и женщины», то можно говорить о том, что компьютер разумен.

Второй вариант предложен Тьюрингом в той же статье. Как и в «Первоначальном тесте», роль игрока А исполняет компьютер. Различие заключается в том, что роль игрока В может исполнять как мужчина, так и женщина.

«Давайте рассмотрим конкретный компьютер. Верно ли то, что модифицируя этот компьютер с целью иметь достаточно места для хранения данных, увеличивая скорость его работы и задавая ему подходящую программу, можно сконструировать такой компьютер, чтобы он удовлетворительно выполнял роль игрока А в имитационной игре, в то время как роль игрока В выполняет мужчина?», — Тьюринг, 1950, стр. 442.

В этом варианте оба игрока А и В пытаются склонить ведущего к неверному решению.

Главной мыслью данной версии является то, что целью теста Тьюринга является ответ не на вопрос, может ли машина одурачить ведущего, а на вопрос, может ли машина имитировать человека или нет. Несмотря на то, что идут споры о том, подразумевался ли этот вариант Тьюрингом или нет, Стеррет считает, что этот вариант Тьюрингом подразумевался и, таким образом, совмещает второй вариант с третьим. В это же время группа оппонентов, включая Трейджера, так не считает. Но это все равно привело к тому, что можно назвать «стандартной интерпретацией». В этом варианте игрок А — компьютер, игрок В — человек любого пола. Задачей ведущего является теперь не определить кто из них мужчина и женщина, а кто из них компьютер, а кто — человек.

https://habr.com/ru/post/69758/

Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

Вопрос в формулировке "одурачить" очень хорошо отображает собой подход к постановке задачи 

Аватар пользователя ильдар
ильдар(10 лет 3 месяца)

Главной мыслью данной версии является то, что целью теста Тьюринга является ответ не на вопрос, может ли машина одурачить ведущего, а на вопрос, может ли машина имитировать человека или нет. Несмотря на то, что идут споры о том, подразумевался ли этот вариант Тьюрингом или нет,

у Тьюринга - задачей компьютера является притвориться женщиной !!!(Если, по словам Тьюринга, «ведущий беседу игрок после проведения игры [с участием компьютера] выносит неверное решение так же часто, как и после проведения игры с участием мужчины и женщины», то можно говорить о том, что компьютер разумен.)

Аватар пользователя CatOwner
CatOwner(7 лет 2 месяца)

говорить можно все, но от этого компьютер разумным не станет. Это просто будет комп, прошедший тест Тьюринга

Аватар пользователя Kozel de Baran
Kozel de Baran(5 лет 10 месяцев)

Общепринятого критерия разумности по-прежнему нет. Даже с тестом IQ и то нет ясности.

Аватар пользователя CatOwner
CatOwner(7 лет 2 месяца)

Имхо, ТТ - это изврат и формализм, закомпостировал только всем мозги (похоже Тьюринг этот был гомогеем не только в хорошем смысле). Если функционал системы определяется системой формул - это автомат, откуда там разум?
Чем обучение нейросети отличается принципиально от интерполяции допустим функции многочленами? Да ничем, и там и там просто настройка суперпозиции элементарных функций.

Аватар пользователя ильдар
ильдар(10 лет 3 месяца)

МОСКВА, 15 апр - РИА Новости. Коллекторское агентство Сбербанка "АБК" внедрило технологию, которая помогает сотрудникам определить правдивость ответов должников при общении, сообщил гендиректор компании Дмитрий Теплицкий.

"Голосовой скоринг - это фактически набор метрик, набор моделей, которые научились в рамках свободного диалога с клиентом предсказывать, вводит в заблуждение клиент или не вводит, обманывает или не обманывает. Мы научились предсказывать... по полу, по возрасту, по интонациям с применением метрик эмоций, если человек обещает оплатить задолженность, он действительно ее оплатит или все-таки вводит в заблуждение, пытается отсрочить срок погашения задолженности и не хочет договариваться", - рассказал он в ходе конференции "Цифровая трансформация взыскания".

Эксперимент начался 1,5-2 года назад, а точность определения правдивости ответов клиента у модели в настоящее время составляет около 76%.

"Мы пошли дальше с этой технологией. Где можно применить этот "детектор лжи"? Да в принципе во всех сферах деятельности. Сейчас мы экспериментируем в рамках проектах HR-платформы - проводим собеседования с кандидатами на массовые вакансии и отбираем - там тоже есть шкала от 0 до 100, - этот человек нам больше подходит или меньше, на эти вопросы он отвечает честно или нечестно", - поделился Теплицкий.

Данный робот также может применяться для проверки интереса клиента к какой-либо услуге, добавил он.

Аватар пользователя Myxomop
Myxomop(10 лет 3 месяца)

Странно, что за подобные разработки частникам ещё по рукам не надавали. При попадании этой технологии в условно-открытый оборот, её моментально подключат к политическим выступлениям, хоть бы и по телевизору. С понятным социально-политическим результатом. Думается эта разработка даже до области отдела кадров не дойдёт, если только ограниченном в области кадровых служб силовых ведомств и то не всех.

Аватар пользователя ильдар
ильдар(10 лет 3 месяца)

все что можно продать - будет продано.

как приложение к телефону (например) - вы записали разговор с некто, и прогнали через прогу.

надо учиться не врать.

Аватар пользователя Myxomop
Myxomop(10 лет 3 месяца)

Я всё же уверен, что подобная технология к свободному обороту будет запрещена. Слишком опасно для государства в целом и множества сообществ в частности, включая семьи.

Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

Вам нравится ложь? 

Аватар пользователя Myxomop
Myxomop(10 лет 3 месяца)

При чём здесь нравится или не нравится? Слишком многое в обществе построено на вранье в той или иной степени. Моральность как оценочная категория к технологиям имеет достаточно опосредованное отношение. Оценивается в первую очередь объективный баланс пользы и соответственно вреда.

Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

Оценивается в первую очередь объективный баланс пользы и соответственно вреда.

Это очень важное дополнение

Аватар пользователя ильдар
ильдар(10 лет 3 месяца)

вот там (говорят) после выхода отсюда буде суд, на котором каждый ответит. и получит соответственно.

врут. все будет здесь. запись\наблюдение\алгоритмы\расходы\связи\ложь.

большой брат это не про них, это про нас тут. и он про "заботу о нас", от нас, для нас.

Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

Все верно... Осознание этого момента снимет многие вопросы с повестки дня 

Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

Из последнего очень впечатлил голосовой помощник банка Хоум Кредит

Аватар пользователя Сяня
Сяня(4 года 1 месяц)

 Ув. Отсюда!

Скажите пожалуйста, с Вами всё нормально?

Просто количество материалов про ИИ нарастает с катастрофической быстротой.

" Мы не хотим в живой уголок! Мы хотим в пионеры."  (с)

Аватар пользователя Myxomop
Myxomop(10 лет 3 месяца)

От искуственного сознания, до оцифровки личности, гораздо меньше одного шага. Соответственно вопрос ИИ это вопрос бессмертия. Своеобразный поиск философского камня. Подобные темы всегда людей волновали.

Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

Имхо, это будет фиаско.. 

Аватар пользователя Myxomop
Myxomop(10 лет 3 месяца)

Сложно сказать уверенно. Если судить по предыдущим поискам бессмертия, то вы скорее правы. Что сам процесс не делает менее любопытным.

Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

Я думаю у людей будет выбор.. Хотелось бы, по крайней мере :) 

Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

Сложно сказать уверенно. Если судить по предыдущим поискам бессмертия, то вы скорее правы. Что сам процесс не делает менее любопытным.

Если рассуждать с философской точки зрения, то для чего человеку бессмертие? Ну покайфовал на всю катушку. Добился всего, чего хотел, все радости и горести этой жизни испытал, а дальше что?  А дальше у любого Бессмертного будет только одно желание.. Желание умереть. Либо он сделает так, чтобы накопленный опыт забывался... 

Так может быть, мы уже в этом плане давно бессмертны? просто это еще за рамками нашего понимания

Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

Все под контролем.. :) клин-клином вышибают... разумный ии - это неизбежность. Вопрос тут в том, каким характером он будет обладать. 

Мы не хотим в живой уголок! Мы хотим в пионеры."  (с)

Темы очень взаимосвязанные.. Дуализм ИИ/Человек тоже имеет место быть... По мне так мешать нас в одно целое не стóит. 

Аватар пользователя poklonyaius_velikomu_kote
poklonyaius_vel...(12 лет 4 месяца)

количество материалов про ИИ нарастает с катастрофической быстротой

Проходили уже, 30 лет назад. Как сейчас помню. Второй бум нейросетей оказался пшиком.
С третьим - текущим будет то-же самое.
Ну классификаторы, ну распознавание текстов, речи, эмоций. Ну автоматизированное вождение, автопилоты всякие. 

Всё равно итогом усилий вновь окажется дрон-самоубийца, для остального - слишком дорого.
Всегда вопрос теоретических изысканий упирается в вопрос практической применимости. 

Аватар пользователя Лукич
Лукич(7 лет 10 месяцев)

нету никакого ИИ на горизонте. Это всё тупые алгоритмы, которые пишут тупые нынешние кодеры. Пользы никакой.

Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

А как же Яндекс навигатор и Яндекс карты? ) 

Аватар пользователя feodor89
feodor89(6 лет 9 месяцев)

А ИИ то там причем ?

Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

Чтобы нормально продолжать разговор, наверное стоит вспомнить его классификацию

 

Аватар пользователя feodor89
feodor89(6 лет 9 месяцев)

По факту там есть нейросетки на распознавание адреса с речи и вероятного расчета пробок. Такой себе ИИ

Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

Согласен

Страницы