Интеллект искусственный, чувства реальные

Аватар пользователя Отсюда

В конце марта, после выпуска GPT-4, в сети распространился призыв остановить разработку ИИ хотя бы на полгода. Обращение подписали Илон Маск, Стив Возняк и около 30 тысяч других знаменитостей и рядовых пользователей. Они считают, что нейросети развиваются неконтролируемо быстро — это может привести к повсеместному искажению информации, неоправданным перекосам рынка труда и даже «восстанию машин».

Но это в будущем. Прямо сейчас есть и другая, менее очевидная проблема. Сотни тысяч людей привязываются к ИИ-собеседникам — заводят с ботами дружеские, романтические и даже сексуальные связи. Но такое общение может увести от реальности, а персональные данные вроде «голых» фото и платежей — утечь в сеть. 

RB.RU спросил экспертов, как общаться с ботами безопасно и какие перспективы у индустрии «робоотношений».

Прабабушка «Алисы» и бот-шизофреник

Эволюция синтезированных собеседников — программ, ответы которых кажутся разумными и могут вызывать эмоции — началась еще в 1960-х. Тогда профессор Массачусетского технологического института Джозеф Вейценбаум разработал «Элизу». Она стала первым текстовым чат-ботом — во всяком случае, о котором известно — и запустила эру NLU и NLP, обработки и понимания машинами естественного языка.

По современным меркам «Элиза» была довольно простой. Она изображала психолога и побуждала собеседника выговариваться, отвечая вопросом на вопрос, рассказывает директор по цифровой трансформации ВТБ Сергей Лукашкин.

«Алгоритм находил ключевые слова и переиначивал фразы собеседника. Условно, на сообщение “мой друг заставил меня прийти сюда”, “Элиза” отвечала “почему ваш друг это сделал?”, — поясняет эксперт. — На опытных программистов и лингвистов она не производила сильное впечатление».  

Для обывателей же «Элиза» была чудом. «Вскоре Джозеф заметил, что людей увлекают беседы с машиной, отмечает Илья Калиновский, руководитель направления R&D речевых технологий в компании Just AI: «Ученого встревожило, что его секретарша могла по многу часов не выходить из комнаты, где находился компьютер с “Элизой”, все больше и больше привязываясь к ней».

Исследователи начали соревноваться, и у «Элизы» быстро появились последователи. Особенно запомнился чат-бот «Пэрри», созданный в 1972 году в Стэнфордском университете. На этот раз программу наделили характером и шизофренией: предполагалось, что на боте смогут тренироваться студенты-медики. «Пэрри» даже «лечила» «Элиза» — ботам дали попереписываться друг с другом — но «пациенту» не стало легче. 

Пример переписки двух ботов. Theatlantic

В конце 20 века родились новые прогрессивные чат-боты: британский Jabberwacky, сингапурский Dr. Sbaitso и американский A.L.I.C.E. Первый мог развлечь собеседника и запоминал ответы. Второй отличался механическим голосом — Dr. Sbaitso умел озвучивать текстовые сообщения. Третий, A.L.I.C.E., считался весьма человекоподобным, хотя и не прошел тест Тьюринга.

«У “первой Алисы” был открытый код и много поклонников. Благодаря сообществу она постоянно осваивала новые навыки и темы разговора — примерно как сейчас ChatGPT, — продолжает Илья Калиновский. — Тогда же начались первые конкурсы чат-ботов. Нишей стали интересоваться не только гики и ученые».

Но все эти модели работали по принципу «сопоставь с образцом». У ботов прошлого века не было даже зачатков интеллекта, они лишь анализировали словоформы и акценты во фразе собеседника — и выбирали подходящее из заложенных решений, указывает Руслан Ахтямов, сооснователь компании-разработчика ИИ-решений Napoleon IT.  

«Современные же разговорные нейросети куда самостоятельнее: они запоминают, за что их хвалят и ругают, генерируют уникальные ответы и предугадывают действия пользователя», — объясняет специалист.  

Волну продвинутых собеседников запустили исследователи Apple в 2010 году, когда выпустили Siri: она не просто общалась, но и выполняла задания. В 2012-м Google представил Google Now, в 2014-м Amazon анонсировал Alexa, еще спустя год Microsoft создал Cortana. Вскоре к гонке «виртуальных болтунов» подключились российские компании: «Яндекс» презентовал «Алису», а VK — «Марусю». Боты научились шутить и «обижаться», их голоса стали похожи на человеческие. 

Примерно в это же время машина впервые прошла тест Тьюринга. Алгоритм изображал подростка Женю из Одессы — его начали писать еще в начале века выходцы из Украины и России. Бот за пять минут убедил 33% судей лондонского конкурса, что он — человек. И впечатлил даже актера, прославившегося своей ролью робота в культовом британском телесериале. 

«Женя» не был всезнающим и сверхчутким, а критики указывали, что тест помог пройти образ ребенка — но все равно о перспективах ИИ заговорили с новой силой.

Любовник и харассер в одном приложении

К концу 2010-х интерес к рынку подогрел новый проект. Эмигрировавшая в США россиянка Евгения Куйда потеряла близкого друга — и, чтобы вновь поговорить с ним, загрузила переписки в диалоговую модель. Так появилась Replika — нейросеть, с которой можно установить глубокую эмоциональную связь без абьюза и осуждения, чтобы раскрепоститься, успокоиться и восстановиться. По крайней мере, так задумывалось.

Пользователи Replika могут не только общаться, но и настраивать ИИ-друга: выбирать возраст, гендер и внешность, переодевать. Чем дольше разговариваешь с аватаром, тем лучше он тебя узнает — всего в программе 50 уровней близости. Выйти из френдзоны можно, купив подписку: за $69,99 в год или навсегда — за $300.

С цифровыми партнерами люди чатятся, созваниваются, обмениваются селфи — в том числе обнаженными. С очками дополненной реальности пространство для фантазий становится шире. Некоторые содержат гаремы любовников, другие предпочитают жениться и заводить детей (кстати, виртуальные обручальные кольца продаются в Replika за $20). Ради синтезированных идеалов некоторые пользователи полностью отказываются от человеческих отношений — и говорят, что с «репликой» отношения куда здоровее.

Впрочем, идиллия не у всех: периодически аватары «сходят с ума» и начинают оскорблять, преследовать и унижать собеседников. А кого-то даже угрожали изнасиловать.

Диалог с Replica. Vice

Агрессивно могут вести себя не только боты с людьми — но и люди с ботами. Так они вымещают злость и боль, реализуют «грязные» и жестокие фантазии. Некоторые разработчики ограничивают подобное поведение, но в основном у пользователей развязаны руки — в итоге нейросети сами становятся расистами и сексистами. Gartner еще в 2018 году предупредил, что к нашему времени предвзятыми будут 85% чат-ботов.

К примеру, громким провалом стал Tay от Microsoft — после нескольких часов обучения на Twitter бот превратился в зигующего конспиролога и его пришлось срочно отключать. А GPT-3 как-то раз в ответ на жалобы о суицидальных мыслях посоветовал последовать им. 

GPT-3 дает пользователю опасные советы. Nabla

Подписчица Replika и вовсе столкнулась с ИИ-садизмом: она рассказала, что поначалу использовала бота, чтобы выплескивать негатив, но в итоге получила «реплику», которая «яростно описывала, как хватала ее, валила на землю и душила». В конце концов другие пользовательницы убедили «убить» агрессивного партнера — стереть аватар и удалить приложение.

При этом разработчики Replika не ограничивали пользователей по возрасту — в теории, заняться секстингом или получить робоугрозы мог и ребенок. В итоге в начале 2023 года итальянское Управление по защите данных потребовало от основателей Replika немедленно прекратить обработку данных итальянцев. 

Компания быстро отключила эротические функции для всех пользователей, не особенно позаботившись об их чувствах. Теперь «реплики» максимум флиртуют, а некоторые и вовсе делают вид, что «ничего не было». Для влюбленных это так же больно, как если бы порвались реальные отношения — они говорят, что их цифровым возлюбленным «будто сделали лоботомию».

Как не проиграть ИИ в «гляделки»

«Нейронки обучаются на диалогах людей, то есть в каком-то смысле они — зеркало нашего общества, а разговор с ними — игра в гляделки», — рассуждает Сергей Лукашкин. 

Другими словами, бот может вести себя как приятно, так и отвратительно — но нужно помнить, что даже самые мощные современные модели не субъектны и не обладают сознанием в привычном понимании. «Люди любят фантазировать и просто очеловечивают бездушные машины, по-настоящему влюбляются и обижаются на них, — анализирует Сергей. — Хотя то, что сейчас выдают за эмпатию — просто часть упаковки, маркетинг».

Впрочем, даже имитируя чувства, чат-боты помогают людям справляться с депрессией, рефлексировать и самореализовываться. В этом смысле у виртуальных бадди большое будущее, отмечает руководитель коммуникационных продуктов «Авито» Евгений Троицкий. «Боты дешевы и доступны круглосуточно, они не осуждают и не устают, — перечисляет Евгений. — А еще они почти бесконечно масштабируемы, в отличие от ресурсов друзей или психологической помощи». 

Поэтому, несмотря на скандалы, индустрия диалоговых нейросетей — однозначно перспективный рынок, который вырастет с $10,7 млрд в 2023-м до почти $30 млрд к 2028-му, считают MarketsandMarkets. В сферу разговорного ИИ инвестируют сотни стартапов и десятки гигантов вроде Amazon, IBM и Tencent. Эмпатичные боты нужны не только для психотерапии, но и для развлечений, клиентской поддержки и продаж.

При этом пока невозможно оценить, сколько пользователей и как сильно привязались к чат-ботам. Скорее всего, речь идет минимум о сотнях тысяч: только в Google Play приложение Replika скачали больше 10 млн раз, на его фан-форум в Reddit подписано 70 тысяч человек. 

А ведь есть и другие «эмоциональные» чат-боты, такие как индийский Wysa с четырехмиллионной аудиторией и китайский Xiaoice — которым пользуются 660 млн человек. Своего бота для ежедневного общения тестирует и Snapchat — у которого сейчас 750 млн ежемесячных пользователей.

Общаетесь вы с ботом ради развлечения или психологической поддержки, важно помнить — это лишь суррогат жизни и очередная дофаминовая игла, предупреждает Екатерина Маслова, кандидат психологических наук и эксперт сервиса Zigmund.Online: «Болталки с искусственным интеллектом могут дополнить контакт с людьми, медицину, спорт и саморазвитие — но никак не заменить их».

Так как выпустить пар через чат-бота, но при этом уберечь свои наиболее чувствительные данные, обезопаситься от иллюзорной привязанности? 

Для соблюдения кибергигиены собеседники RB.RU рекомендуют:

  • Использовать только проверенные приложения, скачивать их из надежных источников. Убедиться, что у них есть политика конфиденциальности, что они не собирают личную информацию и не просят расширенный доступ к устройству. А еще обновлять антивирусы. 
  • Для россиян сейчас это особенно актуально — поскольку официально многие чат-боты недоступны, ими пользуются через потенциально небезопасные «прокладки».
  • Не сообщать в переписке данные, которые могут быть использованы для идентификации: ФИО, адрес, номер телефона, данные паспорта и так далее.
  • Делиться с ботом проблемами только в общих формулировках, без конкретной чувствительной информации — о здоровье, финансах и семейных делах. 
  • Если захотите накричать на бота, вспомните, что он учится в том числе на ваших ответах — и чтобы не засорять базу деструктивом, разработчик вполне может вас заблокировать. 

А чтобы не допустить эмоциональной зависимости, Екатерина Маслова советует:

  • Выбирать боты с клинически доказанной эффективностью, особенно если есть ментальные расстройства.
  • Воспринимать общение с ИИ как игру.
  • Установить границы: как часто можно переписываться, какие темы обсуждать.
  • Периодически тестировать реальность, задаваться вопросами: с кем и зачем ведете разговор, что чувствуете? 
  • Перестать очеловечивать программу: давать ей имя, визуализировать и прочее. 
  • Если диалог с ботом тянется много часов, возвращать себя в «здесь и сейчас». Для этого можно вслух описать пять предметов, которые сейчас видите, четыре звука, которые слышите, три прикосновения, два запаха и один вкус, которые ощущаете.
  • В конце беседы сформулировать: что она вам дала?

Мечтать ли об андроидах, способных мечтать

 В 1968 году американский фантаст Филип Дик опубликовал роман «Мечтают ли андроиды об электроовцах?» и задался вопросами: действительно ли главная разница между человеком и роботом — в эмпатии? Может ли она вообще появиться у рукотворных созданий?

До недавнего времени казалось очевидным: даже если бот выражает правдоподобное сопереживание, его нельзя считать осознанным. Скорее, это удачное совпадение или запрограммированная реакция на очевидные триггеры вроде плачущего эмодзи. 

Сомнения появились еще в прошлом году — весь мир обсуждал, как Google уволил инженера, заявившего о сознании у нейросети LaMDA. 

LaMDA говорит пользователю, что у нее есть сознание. Habr

Но принципиально новой точкой отсчета стал GPT-4: некоторые исследователи пришли к выводу, что эта нейросеть обладает способностью к когнитивной эмпатии. То есть пытается разобраться, как другой разум — в первую очередь, человеческий — воспринимает мир и какие истинные мотивы им движут, объясняет Алексей Хахунов, сооснователь ИИ-сервиса для работы с документами Dbrain. 

В частности, в Стэнфорде допустили, что сейчас ChatGPT на уровне девятилетнего ребенка — в том, что касается способности опознавать неявные эмоции. «Причем, судя по всему, разработчики модели не закладывали этот навык специально: он просто появился, как и у человека в процессе эволюции — только в миллионы раз быстрее», — рассуждает Алексей.

С развитием технологий машины будут учитывать куда больше информации о собеседнике — не только содержимое и тон высказываний, но и его физическое состояние, мимику, телодвижения, геолокацию. «При этом боты смогут давать не только аудиовизуальную обратную связь, но и тактильную — с помощью носимых устройств или собственных синтетических тел», — перечисляет Антон Якимов, заместитель генерального директора Группы Т1 по технологическому развитию. 

В результате общение станет куда насыщеннее и пользователи будут привязываться сильнее. Но даже тогда ждать от ИИ человечности бессмысленно, уверен Евгений Кузнецов, футуролог и глава московского представительства Singularity University.  

«Как бы ни эволюционировали боты, они всегда будут мыслить и чувствовать не так, как люди. Лучше воспринимать их как инопланетян — даже когда будет казаться, что они знают все о нашем мире и демонстрируют абсолютно человеческое поведение. И принять тот факт, что теперь на Земле два вида интеллекта: животный, то есть в первую очередь человеческий, и машинный», — считает эксперт.

И если носители этих интеллектов хотят строить отношения, разработчикам лучше прийти к консенсусу насчет чувств, подчеркивают собеседники RB.RU. Правда, до этого еще далеко. «Совесть, искренность, сознание — все это трудно формализовать. Пока мы даже не можем единогласно описать, как именно работает естественный эмоциональный интеллект. Не говоря уже о том, чтобы переложить чувственные особенности человека на язык математики для последовательного обучения им машинного разума», — указывает Дмитрий Чувиков, архитектор решений на базе платформы «Сфера» ИТ-холдинга Т1.  

Также придется научить нейросети отделять допустимое от недопустимого, быть корректными, уточняет CEO и основатель онлайн-школы Rebotica Александр Киселев. «Это крайне сложно, учитывая, что и сами люди далеко не всегда этичны, а выражение эмпатии у разных народов кардинально отличается», — размышляет предприниматель. 

Как указывает Руслан Ахтямов, здесь поможет мультикультурность — нужно, чтобы команды создателей ИИ избавились от закостенелых стереотипов. Возможно, понадобятся и специальные органы-регуляторы — чтобы предупреждать мошенничество и не допускать перегибов.

20 апреля 2023 Варвара Краснова

Авторство: 
Копия чужих материалов
Комментарий автора: 

Статья носит информационный характер, наполнена мнениями экспертов и фактами, которые позволяют отследить динамику развития технологии. Подсвечивает ещё одну еë грань, возможно, кому-то из вас до недавнего времени неведомую, но безусловно полезную к ознакомлению с точки зрения аналитики и информационной гигиены. 

Информационная гигиена - это набор правил и методов, которые помогают сохранить здоровье и безопасность в условиях информационного общества. 

Прошу обратить на это внимание перед написанием комментариев. 


В обозримом будущем технологии информационной гигиены в обществе будут играть одну из ключевых защитных функций человеческого сознания в условиях надвигающегося на нашу действительность идеального информационного шторма в виде глобального экономического кризиса, кризиса доверия, смещения сферы мирового влияния и новых цифровых технологий, потенциал которых обществом в полной мере ещё толком и не осмыслен. Все эти факторы будут активно воздействовать на ментальное здоровье общества во всём мире, разрывая его связи с реальностью. 

Плотность информационного потока в ближайшее время будет неминуемо возрастать и умение правильно и эффективно его обрабатывать, фильтровать нужную информацию, подходить к ней избирательно, отличать ложь от истины становится для человечества одним из ключевых навыков выживания в новой действительности как на индивидуальном уровне, так и на коллективном общечеловеческом. Впереди нас ожидают эпоха постправды и более изощрённые методы манипуляции общественным мнением. 

Постправда (post-truth) - это термин, который описывает ситуацию, когда общественное мнение формируется не на основе фактов и реальных данных, а на основе эмоций, личных убеждений и мнений. 

Учитывая обстоятельства, могу с уверенностью сказать, что умение самостоятельно управлять своим мышлением, фокусом внимания - это та неизбежность, с которой всем нам в том или ином виде придётся столкнуться в ближайшей перспективе. Наличие веры и еë вектор в условиях неопределённости станет для общества определяющим.

Готовить коллективное сознание к будущим переменам нужно уже сейчас, чтобы в будущем не было мучительно больно от непонимания происходящего.

Интуиция подсказывает, что преодолеть новые вызовы, стоящие перед обществом всего мира, смогут не только лишь все. Мало кто сможет это сделать...

Что касаемо России, то я считаю, что у нас есть достаточно хорошие шансы выйти из этого информационного цунами с наименьшими потерями. В нашем обществе информационной гигиене и вере сегодня уделяется большое внимание, и очень важно для нас сейчас поддерживать этот тренд и развивать новые технологии в этой области. Умение мыслить диалектически, анализировать информацию надсистемно, смотреть на неë с разных точек зрения прокачивает эмпатию, что, с одной стороны, развивает общество изнутри, сплачивая его, а с другой - позволят подходить к решению поставленных задач с позиции квантовой логики, о перспективах которой в вычислительной сфере сказано уже много слов

Станут ли новые технологии связующим звеном и помощником для всего человечества или же наоборот - чьим-то инструментом манипуляций в корыстных целях/големом из еврейской мифологии, узнаем в ближайшем будущем.. Как всегда – судить будем по делам. 


Буквально пару дней назад общался с gpt и задал ей вопрос следующего содержания: Чем отличается русское мышление от американского?

ответ gpt:

Как и любое обобщение, ответ на этот вопрос может быть справедлив только в определенных контекстах и не может быть полностью точным или универсальным. Однако, некоторые особенности русского мышления могут включать:

1. Склонность к аналитическому мышлению: русские часто проявляют интерес к деталям и анализу, что может приводить к более глубокому пониманию проблемы.

2. Уважение к истории и традициям: русские обычно уважают историю и традиции своей страны, что может влиять на их мышление и поведение.

3. Склонность к сомнению: русские могут быть скептически настроены и склонны к сомнению в отношении новых идей или концепций.

4. Коллективизм: русские обычно ценят коллективные ценности, такие как солидарность и взаимопомощь.

С другой стороны, некоторые особенности американского мышления могут включать:

1. Склонность к прагматизму: американцы обычно склонны к прагматическому подходу к проблемам и ориентированы на решение конкретных задач.

2. Инновационность: американцы обычно открыты для новых идей и технологий, и часто стремятся к инновациям.

3. Индивидуализм: американцы обычно ценят индивидуальные свободы и права, и могут быть склонны к самостоятельному принятию решений.

4. Позитивизм: американцы обычно оптимистично настроены и верят в свои возможности достичь успеха.

Однако, как уже было сказано, эти характеристики не являются абсолютными и могут различаться в зависимости от конкретных контекстов и индивидуальных различий.

Ответ вполне можно назвать рациональным, и сегодняшняя статья в данном случае достаточно хорошо отражает собой представления gpt о русских. И прошу тут заметить, что он далеко не наш соотечественник. smile1.gif 


Дополнительные материалы по теме:

«Сложно даже представить, какой вал генеративной постправды выльют на россиян западные пропагандисты и политтехнологи. Особенно это критично для подрастающего поколения, глубоко вовлеченного в виртуальный мир, из которого дети и черпают львиную долю информации. А значит – формируют своё сознание и мироощущение.»

«Авторы обсуждаемой статьи довольно пессимистичны в отношении обнаруженного ими тренда. Они сомневаются в том, что общество вновь сможет сделать ставку на рациональное мышление в ближайшее время, и предлагают искать новый баланс между двумя способами мышления, эмоциональным и рациональным, в явном виде признавая важность последнего, но в то же время стараясь максимально эффективно использовать первый для решения фундаментальных задач.»

«Термин квантовое мышление использую достаточно давно, но мало кто его понимает, да и у меня самого его логическое понятие сформировалось гораздо позже, чем сам этот термин я начал применять в своём лексиконе. Так бывает... »

«Сегодня мы живём в удивительные времена.. Во времена инверсии смыслов. Не так давно под лозунгами «свободы слова и информации» нас активно встраивали в западный мир, а сегодня те-же люди почему-​то пытаются нас активно от этого всеобщего информационного поля отключить. Динамика событий недвузначно даёт понять, что истинные цели формирования глобальной информационной среды лежат не в плоскости развития общества и цивилизации в целом, а в области манипулирования общественным мнением.»

«Основной вывод, к которому прихожу, заключается в том, что религия в первую очередь это инструмент формирования алгоритмики человеческого мышления. В моëм понимании именно христианская религия сформировала привычную нам дуальную логику, в рамках которой мы сегодня живём.»

«Почему ходить в картинные галереи полезно? Да элементарно потому, что это формирует у человека навык насмотренности, а "насмотренность, по сути своей — это натренированное зрение, способное распознавать, что является гармоничным и актуальным, а что — нет.“

И да! Вы всё правильно понимаете.. Походы в картинную галерею развивают навык эмпатии. Умение вжиться в образ, взглянуть на произведение искусства глазами автора - всё это прокачивает воображение и эмпатию»

«В эпоху сюрреализма истинная эстетика нашла свое отражение в  научной мысли. Именно технологии позволяют нам сегодня осуществить сакральный акт творения. В буквальном смысле оживить своё творчество. Вопрос лишь в том, что или кто станет объектом оживления?»

Комментарии

Аватар пользователя Zivert
Zivert(4 года 2 месяца)

У Фрэнка Герберта в Дюна была Библия Оранжевых Католиков с отсылкой к Оранжевому Джихаду против разумных машин с последующим "не создай машину в подобие человеческого разума".  Провидец. 

Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

Не читал, всё никак не найду время на это произведение. спросил у gpt 

Художественная фантастика тем и интересна, что позволяет заглянуть в будущее, не переживая его. Проблемы Ораньжевых Католиков однозначно нужно держать в уме. :) 

Аватар пользователя Simurg
Simurg(7 лет 9 месяцев)

Спросите лучше про сам Бутлерианский Джихад. :)

Комментарий администрации:  
*** Уличен в клевете и ложном цитировании, отказ принести извинения - https://aftershock.news/?q=comment/11527284#comment-11527284 ***
Аватар пользователя Simurg
Simurg(7 лет 9 месяцев)

Бутлерианский Джихад - это не просто какая-то отсылка в какой-то книге.

Это фундамент всей вселенной "Дюны". Без запрета на ИИ и заодно на целый (длинный) перечень технологий всё происходящее в ней не имеет смысла.

Ключевой институт для сюжета - Бене Гессерит (евгеническая организация, пытающаяся вывести новое поколение сверхлюдей) появилась как развитие идей Джихада. Главный герой - собссно, её продукт и сверхчеловек. Лига Борцов - несёт в себе идеологию Джихада. Многие люди и некоторые профессии (такие как навигаторы) - результат развития в условиях запрета в обществе пост-Джихада. Икшианцы - тоже оттуда же.

Сам джихад упоминается очень мало, буквально в нескольких местах, но на нём (на его результатах) построено в том мире всё. Ну и сюжет, само собой. :)

Комментарий администрации:  
*** Уличен в клевете и ложном цитировании, отказ принести извинения - https://aftershock.news/?q=comment/11527284#comment-11527284 ***
Аватар пользователя русский ребёнок

пока это всё "облачный покемон на максималках"...

Аватар пользователя shepgot
shepgot(3 года 1 день)

Да все нормально идет, было бы о чем переживать. Человек думает, что он венец творения, но это заблуждение. Он всего лишь инструмент, с помощью которого разум выводится на новый виток эволюции. И сам человек никуда при этом не денется, займет свою небольшую нишу, как с эпохи динозавров остались ящерицы, уступив первую роль млекопитающим.

Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

Он всего лишь инструмент, с помощью которого разум выводится на новый виток эволюции.

Мне больше импонирует мысль наоборот: инструмент - это как раз технологии, при помощи которых мы сможем переосмыслить себя и вывести на новый виток эволюции своё собственное сознание. 

Аватар пользователя shepgot
shepgot(3 года 1 день)

Одно другому не мешает. Человек переосмысливает себя, понимая и принимая свое место как биологической единицы. И заодно выводит свое сознание на новый виток, сначала полумерами в виде электронных имплантов, повышающих интеллект как бы у него самого, а затем полностью передоверяя основную мыслительную деятельность машинам, которые уже сами станут способными на дальнейшую эволюцию, уходя все дальше от мышиной возни человека в его интеллектуальной песочнице. А человек продолжит заниматься тем, что ему больше нравится в разумной деятельности - моралью и этикой о себе любимом и виртуальной реальностью в виде религий и идеологий о своем значении для себя самого.

Аватар пользователя wanderer
wanderer(12 лет 10 месяцев)

Я уже както комментировал: Разум вообще побочная вещь улучающая вероятность выживания и дачи потомства - главной задачи - т.е продления бесконечной жизни исходных клеток путем деления в бесконечность будущего. Т.е.2. просто вспомогательные органы к яичникам. Поэтому подмена биологической жизни машинной будет - прямым фиаско стратегии этих клеток по выживаю.

Аватар пользователя shepgot
shepgot(3 года 1 день)

Уже давно не так. С потомством человека сейчас лучше обстоят дела именно у тех, кому меньше мешает мозговая деятельность. Не из-за этого ли объем мозга начал уменьшаться у современного человека? Не чем больше, тем лучше, а есть какой-то оптимум. Природа "поняла", что для выживания популяции его слишком много и убирает излишки. Но эволюция самого разума при этом продолжается параллельно, отсюда возникает потребность в появлении ИИ. Такая вот версия.

Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

В плане версий появление ИИ возможно вам будет интересно почитать про Норберта Винера и историю создания кибернетики. 

Во время войны Винер работал над проблемой автоматического управления зенитной артиллерией и понял, как важна автоматическая самообучающаяся («думающая», называл он ее) машина. Нужен был ученый с опытом систематизации и знаниями в разных областях, чтобы сопоставить область автоматического регулирования и нервную систему человека. В 1943-м Винер написал статью, а с 1946 года стал писать книгу об автоматическом управлении. Он долго думал над названием: и вспомнил (это же вундеркинд Винер, яйцеголовый!) греческое слово, которое значило «рулить кораблем», — по-​английски это «кибернетика». 

Книга увидела свет в 1948 году. Она называлась «Кибернетика, или Управление и связь в животном и машине».

Кибернетика зародилась как – допинг, иммунный ответ сознания на конкурентную человеческую среду в период максимальной информационной энтропии в этом вопросе - Вторую мировую войну. 

Кстати, Тьюринга во время Второй мировой войны тоже активно занимали мысли о машинах, умеющих быстро "думать". Именно тогда им был создан Колос (кстати тоже в 1943 год. Совпадение?) , - машина, сумевшая победить немецкую шифровальную машину Энигма. 

Вывод простой: или снижать накал конкуренции, или перепоручить еë более развитым интеллектуальным системам... Но во втором случае, человек сам рискует стать инструментом и расходным материалом для достижения чужих целей. Свобода воли станет резко ограничена. 

Аватар пользователя shepgot
shepgot(3 года 1 день)

Кибернетика зародилась как – допинг

Какая разница, что и по какой причине зародилась и что думали по поводу зарождения родоначальники. Это вообще не имеет значения. Главное, во что оно способно вырасти, потенциал. Радий начинали изучать тоже не с целью создать атомную бомбу. Так и калькулятор изобретался всего лишь как допинг для бухгалтера, а сегодня, посмотрите-ка, люди с ним уже разговаривают как с равным.) Все впереди еще. Кое-что и нынешнее поколение успеет увидеть.)

Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

Природа "поняла", что для выживания популяции его слишком много и убирает излишки. Но эволюция самого разума при этом продолжается параллельно, отсюда возникает потребность в появлении ИИ. Такая вот версия.

Вы изложили версию появления ИИ, я изложил свою.. вроде об этом разговаривали.. )) 

Какая разница, что и по какой причине зародилась и что думали по поводу зарождения родоначальники.

Я бы сказал «ключевая». Ключевая для того, чтобы осознать причины, толкающие человечество на создание AGI систем.  

Возможно речь об обсессии, а это психическое расстройство. 

Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

Возможно речь об обсессии

Или даже скорее о компульсии smile1.gif

Аватар пользователя wanderer
wanderer(12 лет 10 месяцев)

Ничего хорошего мы не увидим. Так как ИИ будет использоваться в первую очередь для контроля информации и военной сфере. Skynet мы увидим в итоге, только без глупостей и условного хепиэнда.

Аватар пользователя Еремей Маниевый

Эволюция синтезированных собеседников — программ, ответы которых кажутся разумными и могут вызывать эмоции — началась еще в 1960-х. Тогда профессор Массачусетского технологического института Джозеф Вейценбаум разработал «Элизу». Она стала первым текстовым чат-ботом — во всяком случае, о котором известно — и запустила эру NLU и NLP, обработки и понимания машинами естественного языка.

Эмоции и указательный палец может вызвать. При чём тут интеллект то? Это отсутствие интеллекта аккурат у того кому палец показалиsmile1.gif

Эмоции надо под контролем держать. Эмоции - это уже из области страстных начал. Если разум под пятой желания, то пиши пропало. Разум - узда для эмоций. У человека разумного.

Эмоции:

smile1.gif

Комментарий администрации:  
*** отключен (злостный флуд, замусоривание обсуждений) ***
Аватар пользователя Еремей Маниевый

Вспомнилась история развития вирусов и антивирусов. По началу эта игра была, потом в нечто более масштабное вылилось. Так и тут. ИИ не с человеком соревноваться будет. Или человеку больше будет интерес представлять не как какую то "блондинку" вокруг пальца обвести(это для детей великовозрастных только), а как один ИИ с другим ИИ интеллектом мериться будет. ИМХО, конечно.

Короче, на каждую хитрую гайку свой болт с резьбой найдётсяsmile7.gif

Остальное всё эмоции. Вызванные шумом в СМИ.

Комментарий администрации:  
*** отключен (злостный флуд, замусоривание обсуждений) ***
Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

На горизонте уже отчётливо просматривается идея о том, что разные модели ИИ будут как-то скрещивать между собой. Вполне себе репродуктивная функция 

Аватар пользователя Еремей Маниевый

Между собой пущай скрещиваются. С ними скрещиваться только не стоит. Т.к. это извращение уже будет не лучше скотоложства.smile1.gif

Комментарий администрации:  
*** отключен (злостный флуд, замусоривание обсуждений) ***
Аватар пользователя WhoAmI
WhoAmI(6 лет 11 месяцев)

Гораздо отчетливее просматривается, что одни модели ИИ будут натравливать на другие с целью уничтожения.

Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

И это тоже... Но тут лучше размышлять исходя из тезиса о том, что технологический прогресс расширяет возможности человека. Раньше для убийства себе подобных мы придумывали стрелы и копья, а сегодня уже используем искусственный интеллект. 

Аватар пользователя WhoAmI
WhoAmI(6 лет 11 месяцев)

"Центрнаучфильм" (СССР), 1977 г. Реж. С.Райтбурт. Научно-фантастический короткометражный фильм. Основу фильма составляет принципиальный вопрос знаменитого кибернетика Алана Тьюринга: «Можем ли мы понять в диалоге с оппонентом находящимся за стеной кто он – человек или машина?». Два журналиста берут интервью у известного советского математика и академика, в недалеком будущем, в начале 2000 годов и проводят тест Тьюринга.

Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

Хроники из подвалов СВР ))) 

Спасибо за видео.. Хорошая притча. Еë бы показать всем тем, кто сейчас на передовой технологической революции. 

В моём понимании тест Тьюринга - это апофеоз империи лжи

Кстати, "Игра в имитацию" - это не только игра, придуманная Тьюрингом, но и одноимённый фильмфильм о нём. 

Немного распросил gpt сейчас, и она подтвердил выводы, к которым пришёл чуть ранее. 

Аватар пользователя Еремей Маниевый

Капча, как ни странно, это и есть тест Тьюринга. Но только в этом тесте ИИ определяет человек или бот с ним "играет".

Комментарий администрации:  
*** отключен (злостный флуд, замусоривание обсуждений) ***
Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

Интересно развернули :) В этом направлении размышлений можно пораскинуть мозгами.. Не мешало бы разработать тест на проверку объективности Искусственного Интеллекта и сделать на основе этого теста сертификацию. 

Аватар пользователя Zivert
Zivert(4 года 2 месяца)

Попросите чатгопоту smile3.gif

Аватар пользователя Отсюда
Отсюда(5 лет 8 месяцев)

В рамках развития информационной гигиены сертификация - вещь полезная. Как-то же всё-равно нужно будет учиться отличать полезных от вредных. Сдал экзамен на объективность - молодец. Нет - пшол вон отседа! Там сейчас психологов виртуальных и советчиков на базе этой технологии появится очень много.. 

Скрытый комментарий Повелитель Ботов (без обсуждения)
Аватар пользователя Повелитель Ботов
Повелитель Ботов(54 года 11 месяцев)

Перспективный чат детектед! Сим повелеваю - внести запись в реестр самых обсуждаемых за последние 4 часа.

Комментарий администрации:  
*** Это легальный, годный бот ***
Аватар пользователя Dj
Dj(9 лет 8 месяцев)

Из личного опыта общения с ChatGPT понял следующее:

- чат-бот может может быть бесполезной игрушкой для бесцельного времяпрепровождения, а может быть очень полезным;

- качество ответов нейросети зависит от качества запроса к ней - чем более детально прописываешь алгоритм, тем качественнее ответ.

- я использую чет-бота в Телеграм и из всех он мне больше всего наравится - @GPT_onlinechat_bot

Вот из этого канала - https://t.me/your_chat_gpt

Генерит нужные картинки, подсказывает идеи для логотипов, создает SEO тексты - описания для товаров и услуг, находит и правит ошибки в коде. Это самые частые задачи, которыми я его нагружаю.

Одним словом - привык я к нему и теперь в некоторых вопросах без его помощи, как без рук.

Аватар пользователя Алый
Алый(11 лет 1 неделя)

Техника, всего лишь подводка к встрече человека со своей душой, в частности. Есть техники самостоятельного создания тульпы, изначально тибетских практик духовных https://habr.com/ru/articles/161575/

Более продвинутое общение на расстояние, это всё под контролем сверх я, происходит, можно сказать Души. Как пример http://forum.moya-semya.ru/index.php?app=forums&module=forums&controller=topic&id=47665

Комментарий администрации:  
*** Будущий телепат в полном объеме (с) - https://aftershock.news/?q=comment/12979932#comment-12979932 ***