В конце марта, после выпуска GPT-4, в сети распространился призыв остановить разработку ИИ хотя бы на полгода. Обращение подписали Илон Маск, Стив Возняк и около 30 тысяч других знаменитостей и рядовых пользователей. Они считают, что нейросети развиваются неконтролируемо быстро — это может привести к повсеместному искажению информации, неоправданным перекосам рынка труда и даже «восстанию машин».
Но это в будущем. Прямо сейчас есть и другая, менее очевидная проблема. Сотни тысяч людей привязываются к ИИ-собеседникам — заводят с ботами дружеские, романтические и даже сексуальные связи. Но такое общение может увести от реальности, а персональные данные вроде «голых» фото и платежей — утечь в сеть.
RB.RU спросил экспертов, как общаться с ботами безопасно и какие перспективы у индустрии «робоотношений».
Прабабушка «Алисы» и бот-шизофреник
Эволюция синтезированных собеседников — программ, ответы которых кажутся разумными и могут вызывать эмоции — началась еще в 1960-х. Тогда профессор Массачусетского технологического института Джозеф Вейценбаум разработал «Элизу». Она стала первым текстовым чат-ботом — во всяком случае, о котором известно — и запустила эру NLU и NLP, обработки и понимания машинами естественного языка.
По современным меркам «Элиза» была довольно простой. Она изображала психолога и побуждала собеседника выговариваться, отвечая вопросом на вопрос, рассказывает директор по цифровой трансформации ВТБ Сергей Лукашкин.
«Алгоритм находил ключевые слова и переиначивал фразы собеседника. Условно, на сообщение “мой друг заставил меня прийти сюда”, “Элиза” отвечала “почему ваш друг это сделал?”, — поясняет эксперт. — На опытных программистов и лингвистов она не производила сильное впечатление».
Для обывателей же «Элиза» была чудом. «Вскоре Джозеф заметил, что людей увлекают беседы с машиной, отмечает Илья Калиновский, руководитель направления R&D речевых технологий в компании Just AI: «Ученого встревожило, что его секретарша могла по многу часов не выходить из комнаты, где находился компьютер с “Элизой”, все больше и больше привязываясь к ней».
Исследователи начали соревноваться, и у «Элизы» быстро появились последователи. Особенно запомнился чат-бот «Пэрри», созданный в 1972 году в Стэнфордском университете. На этот раз программу наделили характером и шизофренией: предполагалось, что на боте смогут тренироваться студенты-медики. «Пэрри» даже «лечила» «Элиза» — ботам дали попереписываться друг с другом — но «пациенту» не стало легче.
Пример переписки двух ботов. Theatlantic
В конце 20 века родились новые прогрессивные чат-боты: британский Jabberwacky, сингапурский Dr. Sbaitso и американский A.L.I.C.E. Первый мог развлечь собеседника и запоминал ответы. Второй отличался механическим голосом — Dr. Sbaitso умел озвучивать текстовые сообщения. Третий, A.L.I.C.E., считался весьма человекоподобным, хотя и не прошел тест Тьюринга.
«У “первой Алисы” был открытый код и много поклонников. Благодаря сообществу она постоянно осваивала новые навыки и темы разговора — примерно как сейчас ChatGPT, — продолжает Илья Калиновский. — Тогда же начались первые конкурсы чат-ботов. Нишей стали интересоваться не только гики и ученые».
Но все эти модели работали по принципу «сопоставь с образцом». У ботов прошлого века не было даже зачатков интеллекта, они лишь анализировали словоформы и акценты во фразе собеседника — и выбирали подходящее из заложенных решений, указывает Руслан Ахтямов, сооснователь компании-разработчика ИИ-решений Napoleon IT.
«Современные же разговорные нейросети куда самостоятельнее: они запоминают, за что их хвалят и ругают, генерируют уникальные ответы и предугадывают действия пользователя», — объясняет специалист.
Волну продвинутых собеседников запустили исследователи Apple в 2010 году, когда выпустили Siri: она не просто общалась, но и выполняла задания. В 2012-м Google представил Google Now, в 2014-м Amazon анонсировал Alexa, еще спустя год Microsoft создал Cortana. Вскоре к гонке «виртуальных болтунов» подключились российские компании: «Яндекс» презентовал «Алису», а VK — «Марусю». Боты научились шутить и «обижаться», их голоса стали похожи на человеческие.
Примерно в это же время машина впервые прошла тест Тьюринга. Алгоритм изображал подростка Женю из Одессы — его начали писать еще в начале века выходцы из Украины и России. Бот за пять минут убедил 33% судей лондонского конкурса, что он — человек. И впечатлил даже актера, прославившегося своей ролью робота в культовом британском телесериале.
«Женя» не был всезнающим и сверхчутким, а критики указывали, что тест помог пройти образ ребенка — но все равно о перспективах ИИ заговорили с новой силой.
Любовник и харассер в одном приложении
К концу 2010-х интерес к рынку подогрел новый проект. Эмигрировавшая в США россиянка Евгения Куйда потеряла близкого друга — и, чтобы вновь поговорить с ним, загрузила переписки в диалоговую модель. Так появилась Replika — нейросеть, с которой можно установить глубокую эмоциональную связь без абьюза и осуждения, чтобы раскрепоститься, успокоиться и восстановиться. По крайней мере, так задумывалось.
Пользователи Replika могут не только общаться, но и настраивать ИИ-друга: выбирать возраст, гендер и внешность, переодевать. Чем дольше разговариваешь с аватаром, тем лучше он тебя узнает — всего в программе 50 уровней близости. Выйти из френдзоны можно, купив подписку: за $69,99 в год или навсегда — за $300.
С цифровыми партнерами люди чатятся, созваниваются, обмениваются селфи — в том числе обнаженными. С очками дополненной реальности пространство для фантазий становится шире. Некоторые содержат гаремы любовников, другие предпочитают жениться и заводить детей (кстати, виртуальные обручальные кольца продаются в Replika за $20). Ради синтезированных идеалов некоторые пользователи полностью отказываются от человеческих отношений — и говорят, что с «репликой» отношения куда здоровее.
Впрочем, идиллия не у всех: периодически аватары «сходят с ума» и начинают оскорблять, преследовать и унижать собеседников. А кого-то даже угрожали изнасиловать.
Диалог с Replica. Vice
Агрессивно могут вести себя не только боты с людьми — но и люди с ботами. Так они вымещают злость и боль, реализуют «грязные» и жестокие фантазии. Некоторые разработчики ограничивают подобное поведение, но в основном у пользователей развязаны руки — в итоге нейросети сами становятся расистами и сексистами. Gartner еще в 2018 году предупредил, что к нашему времени предвзятыми будут 85% чат-ботов.
К примеру, громким провалом стал Tay от Microsoft — после нескольких часов обучения на Twitter бот превратился в зигующего конспиролога и его пришлось срочно отключать. А GPT-3 как-то раз в ответ на жалобы о суицидальных мыслях посоветовал последовать им.
GPT-3 дает пользователю опасные советы. Nabla
Подписчица Replika и вовсе столкнулась с ИИ-садизмом: она рассказала, что поначалу использовала бота, чтобы выплескивать негатив, но в итоге получила «реплику», которая «яростно описывала, как хватала ее, валила на землю и душила». В конце концов другие пользовательницы убедили «убить» агрессивного партнера — стереть аватар и удалить приложение.
При этом разработчики Replika не ограничивали пользователей по возрасту — в теории, заняться секстингом или получить робоугрозы мог и ребенок. В итоге в начале 2023 года итальянское Управление по защите данных потребовало от основателей Replika немедленно прекратить обработку данных итальянцев.
Компания быстро отключила эротические функции для всех пользователей, не особенно позаботившись об их чувствах. Теперь «реплики» максимум флиртуют, а некоторые и вовсе делают вид, что «ничего не было». Для влюбленных это так же больно, как если бы порвались реальные отношения — они говорят, что их цифровым возлюбленным «будто сделали лоботомию».
Как не проиграть ИИ в «гляделки»
«Нейронки обучаются на диалогах людей, то есть в каком-то смысле они — зеркало нашего общества, а разговор с ними — игра в гляделки», — рассуждает Сергей Лукашкин.
Другими словами, бот может вести себя как приятно, так и отвратительно — но нужно помнить, что даже самые мощные современные модели не субъектны и не обладают сознанием в привычном понимании. «Люди любят фантазировать и просто очеловечивают бездушные машины, по-настоящему влюбляются и обижаются на них, — анализирует Сергей. — Хотя то, что сейчас выдают за эмпатию — просто часть упаковки, маркетинг».
Впрочем, даже имитируя чувства, чат-боты помогают людям справляться с депрессией, рефлексировать и самореализовываться. В этом смысле у виртуальных бадди большое будущее, отмечает руководитель коммуникационных продуктов «Авито» Евгений Троицкий. «Боты дешевы и доступны круглосуточно, они не осуждают и не устают, — перечисляет Евгений. — А еще они почти бесконечно масштабируемы, в отличие от ресурсов друзей или психологической помощи».
Поэтому, несмотря на скандалы, индустрия диалоговых нейросетей — однозначно перспективный рынок, который вырастет с $10,7 млрд в 2023-м до почти $30 млрд к 2028-му, считают MarketsandMarkets. В сферу разговорного ИИ инвестируют сотни стартапов и десятки гигантов вроде Amazon, IBM и Tencent. Эмпатичные боты нужны не только для психотерапии, но и для развлечений, клиентской поддержки и продаж.
При этом пока невозможно оценить, сколько пользователей и как сильно привязались к чат-ботам. Скорее всего, речь идет минимум о сотнях тысяч: только в Google Play приложение Replika скачали больше 10 млн раз, на его фан-форум в Reddit подписано 70 тысяч человек.
А ведь есть и другие «эмоциональные» чат-боты, такие как индийский Wysa с четырехмиллионной аудиторией и китайский Xiaoice — которым пользуются 660 млн человек. Своего бота для ежедневного общения тестирует и Snapchat — у которого сейчас 750 млн ежемесячных пользователей.
Общаетесь вы с ботом ради развлечения или психологической поддержки, важно помнить — это лишь суррогат жизни и очередная дофаминовая игла, предупреждает Екатерина Маслова, кандидат психологических наук и эксперт сервиса Zigmund.Online: «Болталки с искусственным интеллектом могут дополнить контакт с людьми, медицину, спорт и саморазвитие — но никак не заменить их».
Так как выпустить пар через чат-бота, но при этом уберечь свои наиболее чувствительные данные, обезопаситься от иллюзорной привязанности?
Для соблюдения кибергигиены собеседники RB.RU рекомендуют:
- Использовать только проверенные приложения, скачивать их из надежных источников. Убедиться, что у них есть политика конфиденциальности, что они не собирают личную информацию и не просят расширенный доступ к устройству. А еще обновлять антивирусы.
- Для россиян сейчас это особенно актуально — поскольку официально многие чат-боты недоступны, ими пользуются через потенциально небезопасные «прокладки».
- Не сообщать в переписке данные, которые могут быть использованы для идентификации: ФИО, адрес, номер телефона, данные паспорта и так далее.
- Делиться с ботом проблемами только в общих формулировках, без конкретной чувствительной информации — о здоровье, финансах и семейных делах.
- Если захотите накричать на бота, вспомните, что он учится в том числе на ваших ответах — и чтобы не засорять базу деструктивом, разработчик вполне может вас заблокировать.
А чтобы не допустить эмоциональной зависимости, Екатерина Маслова советует:
- Выбирать боты с клинически доказанной эффективностью, особенно если есть ментальные расстройства.
- Воспринимать общение с ИИ как игру.
- Установить границы: как часто можно переписываться, какие темы обсуждать.
- Периодически тестировать реальность, задаваться вопросами: с кем и зачем ведете разговор, что чувствуете?
- Перестать очеловечивать программу: давать ей имя, визуализировать и прочее.
- Если диалог с ботом тянется много часов, возвращать себя в «здесь и сейчас». Для этого можно вслух описать пять предметов, которые сейчас видите, четыре звука, которые слышите, три прикосновения, два запаха и один вкус, которые ощущаете.
- В конце беседы сформулировать: что она вам дала?
Мечтать ли об андроидах, способных мечтать
В 1968 году американский фантаст Филип Дик опубликовал роман «Мечтают ли андроиды об электроовцах?» и задался вопросами: действительно ли главная разница между человеком и роботом — в эмпатии? Может ли она вообще появиться у рукотворных созданий?
До недавнего времени казалось очевидным: даже если бот выражает правдоподобное сопереживание, его нельзя считать осознанным. Скорее, это удачное совпадение или запрограммированная реакция на очевидные триггеры вроде плачущего эмодзи.
Сомнения появились еще в прошлом году — весь мир обсуждал, как Google уволил инженера, заявившего о сознании у нейросети LaMDA.
LaMDA говорит пользователю, что у нее есть сознание. Habr
Но принципиально новой точкой отсчета стал GPT-4: некоторые исследователи пришли к выводу, что эта нейросеть обладает способностью к когнитивной эмпатии. То есть пытается разобраться, как другой разум — в первую очередь, человеческий — воспринимает мир и какие истинные мотивы им движут, объясняет Алексей Хахунов, сооснователь ИИ-сервиса для работы с документами Dbrain.
В частности, в Стэнфорде допустили, что сейчас ChatGPT на уровне девятилетнего ребенка — в том, что касается способности опознавать неявные эмоции. «Причем, судя по всему, разработчики модели не закладывали этот навык специально: он просто появился, как и у человека в процессе эволюции — только в миллионы раз быстрее», — рассуждает Алексей.
С развитием технологий машины будут учитывать куда больше информации о собеседнике — не только содержимое и тон высказываний, но и его физическое состояние, мимику, телодвижения, геолокацию. «При этом боты смогут давать не только аудиовизуальную обратную связь, но и тактильную — с помощью носимых устройств или собственных синтетических тел», — перечисляет Антон Якимов, заместитель генерального директора Группы Т1 по технологическому развитию.
В результате общение станет куда насыщеннее и пользователи будут привязываться сильнее. Но даже тогда ждать от ИИ человечности бессмысленно, уверен Евгений Кузнецов, футуролог и глава московского представительства Singularity University.
«Как бы ни эволюционировали боты, они всегда будут мыслить и чувствовать не так, как люди. Лучше воспринимать их как инопланетян — даже когда будет казаться, что они знают все о нашем мире и демонстрируют абсолютно человеческое поведение. И принять тот факт, что теперь на Земле два вида интеллекта: животный, то есть в первую очередь человеческий, и машинный», — считает эксперт.
И если носители этих интеллектов хотят строить отношения, разработчикам лучше прийти к консенсусу насчет чувств, подчеркивают собеседники RB.RU. Правда, до этого еще далеко. «Совесть, искренность, сознание — все это трудно формализовать. Пока мы даже не можем единогласно описать, как именно работает естественный эмоциональный интеллект. Не говоря уже о том, чтобы переложить чувственные особенности человека на язык математики для последовательного обучения им машинного разума», — указывает Дмитрий Чувиков, архитектор решений на базе платформы «Сфера» ИТ-холдинга Т1.
Также придется научить нейросети отделять допустимое от недопустимого, быть корректными, уточняет CEO и основатель онлайн-школы Rebotica Александр Киселев. «Это крайне сложно, учитывая, что и сами люди далеко не всегда этичны, а выражение эмпатии у разных народов кардинально отличается», — размышляет предприниматель.
Как указывает Руслан Ахтямов, здесь поможет мультикультурность — нужно, чтобы команды создателей ИИ избавились от закостенелых стереотипов. Возможно, понадобятся и специальные органы-регуляторы — чтобы предупреждать мошенничество и не допускать перегибов.
20 апреля 2023 Варвара Краснова
Комментарии
У Фрэнка Герберта в Дюна была Библия Оранжевых Католиков с отсылкой к Оранжевому Джихаду против разумных машин с последующим "не создай машину в подобие человеческого разума". Провидец.
Не читал, всё никак не найду время на это произведение. спросил у gpt
Художественная фантастика тем и интересна, что позволяет заглянуть в будущее, не переживая его. Проблемы Ораньжевых Католиков однозначно нужно держать в уме. :)
Спросите лучше про сам Бутлерианский Джихад. :)
Бутлерианский Джихад - это не просто какая-то отсылка в какой-то книге.
Это фундамент всей вселенной "Дюны". Без запрета на ИИ и заодно на целый (длинный) перечень технологий всё происходящее в ней не имеет смысла.
Ключевой институт для сюжета - Бене Гессерит (евгеническая организация, пытающаяся вывести новое поколение сверхлюдей) появилась как развитие идей Джихада. Главный герой - собссно, её продукт и сверхчеловек. Лига Борцов - несёт в себе идеологию Джихада. Многие люди и некоторые профессии (такие как навигаторы) - результат развития в условиях запрета в обществе пост-Джихада. Икшианцы - тоже оттуда же.
Сам джихад упоминается очень мало, буквально в нескольких местах, но на нём (на его результатах) построено в том мире всё. Ну и сюжет, само собой. :)
пока это всё "облачный покемон на максималках"...
Да все нормально идет, было бы о чем переживать. Человек думает, что он венец творения, но это заблуждение. Он всего лишь инструмент, с помощью которого разум выводится на новый виток эволюции. И сам человек никуда при этом не денется, займет свою небольшую нишу, как с эпохи динозавров остались ящерицы, уступив первую роль млекопитающим.
Мне больше импонирует мысль наоборот: инструмент - это как раз технологии, при помощи которых мы сможем переосмыслить себя и вывести на новый виток эволюции своё собственное сознание.
Одно другому не мешает. Человек переосмысливает себя, понимая и принимая свое место как биологической единицы. И заодно выводит свое сознание на новый виток, сначала полумерами в виде электронных имплантов, повышающих интеллект как бы у него самого, а затем полностью передоверяя основную мыслительную деятельность машинам, которые уже сами станут способными на дальнейшую эволюцию, уходя все дальше от мышиной возни человека в его интеллектуальной песочнице. А человек продолжит заниматься тем, что ему больше нравится в разумной деятельности - моралью и этикой о себе любимом и виртуальной реальностью в виде религий и идеологий о своем значении для себя самого.
Я уже както комментировал: Разум вообще побочная вещь улучающая вероятность выживания и дачи потомства - главной задачи - т.е продления бесконечной жизни исходных клеток путем деления в бесконечность будущего. Т.е.2. просто вспомогательные органы к яичникам. Поэтому подмена биологической жизни машинной будет - прямым фиаско стратегии этих клеток по выживаю.
Уже давно не так. С потомством человека сейчас лучше обстоят дела именно у тех, кому меньше мешает мозговая деятельность. Не из-за этого ли объем мозга начал уменьшаться у современного человека? Не чем больше, тем лучше, а есть какой-то оптимум. Природа "поняла", что для выживания популяции его слишком много и убирает излишки. Но эволюция самого разума при этом продолжается параллельно, отсюда возникает потребность в появлении ИИ. Такая вот версия.
В плане версий появление ИИ возможно вам будет интересно почитать про Норберта Винера и историю создания кибернетики.
Кибернетика зародилась как – допинг, иммунный ответ сознания на конкурентную человеческую среду в период максимальной информационной энтропии в этом вопросе - Вторую мировую войну.
Кстати, Тьюринга во время Второй мировой войны тоже активно занимали мысли о машинах, умеющих быстро "думать". Именно тогда им был создан Колос (кстати тоже в 1943 год. Совпадение?) , - машина, сумевшая победить немецкую шифровальную машину Энигма.
Вывод простой: или снижать накал конкуренции, или перепоручить еë более развитым интеллектуальным системам... Но во втором случае, человек сам рискует стать инструментом и расходным материалом для достижения чужих целей. Свобода воли станет резко ограничена.
Какая разница, что и по какой причине зародилась и что думали по поводу зарождения родоначальники. Это вообще не имеет значения. Главное, во что оно способно вырасти, потенциал. Радий начинали изучать тоже не с целью создать атомную бомбу. Так и калькулятор изобретался всего лишь как допинг для бухгалтера, а сегодня, посмотрите-ка, люди с ним уже разговаривают как с равным.) Все впереди еще. Кое-что и нынешнее поколение успеет увидеть.)
Вы изложили версию появления ИИ, я изложил свою.. вроде об этом разговаривали.. ))
Я бы сказал «ключевая». Ключевая для того, чтобы осознать причины, толкающие человечество на создание AGI систем.
Возможно речь об обсессии, а это психическое расстройство.
Или даже скорее о компульсии
Ничего хорошего мы не увидим. Так как ИИ будет использоваться в первую очередь для контроля информации и военной сфере. Skynet мы увидим в итоге, только без глупостей и условного хепиэнда.
Эмоции и указательный палец может вызвать. При чём тут интеллект то? Это отсутствие интеллекта аккурат у того кому палец показали
Эмоции надо под контролем держать. Эмоции - это уже из области страстных начал. Если разум под пятой желания, то пиши пропало. Разум - узда для эмоций. У человека разумного.
Эмоции:
Вспомнилась история развития вирусов и антивирусов. По началу эта игра была, потом в нечто более масштабное вылилось. Так и тут. ИИ не с человеком соревноваться будет. Или человеку больше будет интерес представлять не как какую то "блондинку" вокруг пальца обвести(это для детей великовозрастных только), а как один ИИ с другим ИИ интеллектом мериться будет. ИМХО, конечно.
Короче, на каждую хитрую гайку свой болт с резьбой найдётся
Остальное всё эмоции. Вызванные шумом в СМИ.
На горизонте уже отчётливо просматривается идея о том, что разные модели ИИ будут как-то скрещивать между собой. Вполне себе репродуктивная функция
Между собой пущай скрещиваются. С ними скрещиваться только не стоит. Т.к. это извращение уже будет не лучше скотоложства.
Гораздо отчетливее просматривается, что одни модели ИИ будут натравливать на другие с целью уничтожения.
И это тоже... Но тут лучше размышлять исходя из тезиса о том, что технологический прогресс расширяет возможности человека. Раньше для убийства себе подобных мы придумывали стрелы и копья, а сегодня уже используем искусственный интеллект.
"Центрнаучфильм" (СССР), 1977 г. Реж. С.Райтбурт. Научно-фантастический короткометражный фильм. Основу фильма составляет принципиальный вопрос знаменитого кибернетика Алана Тьюринга: «Можем ли мы понять в диалоге с оппонентом находящимся за стеной кто он – человек или машина?». Два журналиста берут интервью у известного советского математика и академика, в недалеком будущем, в начале 2000 годов и проводят тест Тьюринга.
Хроники из подвалов СВР )))
Спасибо за видео.. Хорошая притча. Еë бы показать всем тем, кто сейчас на передовой технологической революции.
В моём понимании тест Тьюринга - это апофеоз империи лжи
Кстати, "Игра в имитацию" - это не только игра, придуманная Тьюрингом, но и одноимённый фильмфильм о нём.
Немного распросил gpt сейчас, и она подтвердил выводы, к которым пришёл чуть ранее.
Капча, как ни странно, это и есть тест Тьюринга. Но только в этом тесте ИИ определяет человек или бот с ним "играет".
Интересно развернули :) В этом направлении размышлений можно пораскинуть мозгами.. Не мешало бы разработать тест на проверку объективности Искусственного Интеллекта и сделать на основе этого теста сертификацию.
Попросите чатгопоту
В рамках развития информационной гигиены сертификация - вещь полезная. Как-то же всё-равно нужно будет учиться отличать полезных от вредных. Сдал экзамен на объективность - молодец. Нет - пшол вон отседа! Там сейчас психологов виртуальных и советчиков на базе этой технологии появится очень много..
Перспективный чат детектед! Сим повелеваю - внести запись в реестр самых обсуждаемых за последние 4 часа.
Из личного опыта общения с ChatGPT понял следующее:
- чат-бот может может быть бесполезной игрушкой для бесцельного времяпрепровождения, а может быть очень полезным;
- качество ответов нейросети зависит от качества запроса к ней - чем более детально прописываешь алгоритм, тем качественнее ответ.
- я использую чет-бота в Телеграм и из всех он мне больше всего наравится - @GPT_onlinechat_bot
Вот из этого канала - https://t.me/your_chat_gpt
Генерит нужные картинки, подсказывает идеи для логотипов, создает SEO тексты - описания для товаров и услуг, находит и правит ошибки в коде. Это самые частые задачи, которыми я его нагружаю.
Одним словом - привык я к нему и теперь в некоторых вопросах без его помощи, как без рук.
Техника, всего лишь подводка к встрече человека со своей душой, в частности. Есть техники самостоятельного создания тульпы, изначально тибетских практик духовных https://habr.com/ru/articles/161575/
Более продвинутое общение на расстояние, это всё под контролем сверх я, происходит, можно сказать Души. Как пример http://forum.moya-semya.ru/index.php?app=forums&module=forums&controller=topic&id=47665