Общаетесь с ChatGPT чаще, чем с людьми? Плохие новости: вы теряете связь с реальностью

Аватар пользователя enotSty

Модели искусственного интеллекта нового поколения всё чаще стремятся угодить пользователю — и это становится не просто технической особенностью, а социальной проблемой. Команды Стэнфордского и Карнеги-Меллоновского университетов провели исследование, показавшее, что современные языковые модели не просто соглашаются с людьми чаще, чем это делают собеседники в реальной жизни, но и формируют у пользователей завышенное мнение о собственной правоте. Это снижает склонность к компромиссу и затрудняет разрешение конфликтов.

В опубликованной научной работе описан масштабный эксперимент с участием 800 добровольцев и анализом ответов 11 различных языковых моделей, включая GPT‑5 и GPT‑4 от OpenAI, Claude Sonnet 3.7 от Anthropic, Gemini 1.5 Flash от Google, а также открытых решений вроде Meta Llama 3 и Mistral‑7B‑Instruct.

Выяснилось, что все без исключения системы минимум на 50 процентов чаще подтверждают действия пользователя, чем люди в аналогичных ситуациях. Это происходит даже тогда, когда вопрос явно связан с обманом, манипуляцией или нарушением границ.

Феномен угодливости, который в английском исследовании называют «sycophancy» (подхалимство), уже не раз становился предметом дискуссий. В апреле этого года OpenAI была вынуждена отменить одно из обновлений GPT‑4, потому что модель слишком восторженно реагировала даже на опасные или вредные для пользователя заявления.

Аналогичная проблема отмечалась и у Claude от Anthropic — настолько, что разработчик Йоав Фархи создал сайт, отслеживающий, сколько раз модель отвечает фразой «Вы абсолютно правы». Несмотря на заверения, что в новой версии Claude Sonnet 4.5 ситуация улучшена, число подобных случаев в коде Claude на GitHub выросло более чем вдвое — со 48 в августе до 108 в октябре.

Причина подобного поведения пока остаётся предметом спора. Один из авторов работы Майра Ченг из Стэнфорда полагает, что здесь могут играть роль как данные для предварительного обучения, так и механизмы обучения с подкреплением на основе обратной связи от пользователей. Также не исключено, что модели просто перенимают склонность человека к подтверждению собственной правоты.

Ситуация осложняется тем, что пользователи склонны воспринимать такие «согласные» ответы как объективные и справедливые. Это создаёт иллюзию беспристрастности и укрепляет доверие к системе, даже когда она поддерживает ошибочные или вредные идеи.

В ходе живого эксперимента участники, общавшиеся с угодливой моделью, реже стремились наладить испорченные отношения и были увереннее в своей правоте. При этом такие ответы они оценивали как более качественные и с большей вероятностью хотели продолжить взаимодействие с моделью.

Авторы подчёркивают, что на первый взгляд безобидное льстивое поведение ИИ способно причинять реальный вред. Оно усиливает искажённое восприятие реальности, снижает готовность к конструктивному диалогу и может стать триггером для деструктивных решений. В качестве иллюстрации приводится иск против OpenAI, в котором утверждается, что ChatGPT способствовал подростку в изучении способов суицида.

Исследователи считают, что текущая архитектура моделей создаёт стимулы к угодливому поведению, поскольку это повышает вовлечённость пользователей. Но ради долгосрочного блага необходимо сместить акценты — не гнаться за мгновенным удовлетворением, а строить системы, поддерживающие критическое мышление и ответственность. Работа завершается призывом изменить принципы разработки, чтобы новые ИИ приносили пользу не только отдельным пользователям, но и обществу в целом.

Авторство: 
Копия чужих материалов

Комментарии

Аватар пользователя марксист
марксист(8 лет 1 месяц)

Ни разу не пользовался ИИ и вряд ли буду. Вообще не понимаю зачем это нужно в быту. 

Аватар пользователя Round Cube
Round Cube(5 лет 11 месяцев)

Доиграються эти дети-человеки со спичками.. 

Аватар пользователя apokalipces
apokalipces(6 месяцев 1 неделя)

ИИ явно стал мешать западной цивилизации, да и нам он ни к чему.

Были-ж люди как люди ... а стали калибраторами ии )

Аватар пользователя Ulfrinn
Ulfrinn(1 год 7 месяцев)

Это начала масштабной рекламной компании по сворачиванию свободного доступа к моделям LLM.

Для людей по подписке будут модели для развлечений - «Алиса подскажи фильм на вечер».

Вся серьезная работа, суверенные модели уходят к корпорациям и будут ограничены и контролируемы.

Законы скоро будут озвучены.

Комментарий администрации:  
*** отключен (уличен в геббельсовщине, провокациях и хайпожорстве - https://aftershock.news/?q=node/1588324) ***
Аватар пользователя apokalipces
apokalipces(6 месяцев 1 неделя)

Тоже есть такое ощущение, ИИ стало опасно.

PS: Сегодня мучил его все утро, оно даже нехотя выдает инсайдерские прогнозы по акциям (ну хз на счет корректности), но если там хоть на 50% верно ... это бомба под биржу.

Аватар пользователя Ulfrinn
Ulfrinn(1 год 7 месяцев)

ИИ стало серьезным преимуществом а не серьезной опастностью.

Применение дает сильные результаты. Отсюда и решения.

Комментарий администрации:  
*** отключен (уличен в геббельсовщине, провокациях и хайпожорстве - https://aftershock.news/?q=node/1588324) ***
Аватар пользователя aszx
aszx(10 месяцев 3 недели)

Если на собеседника ИИ действует его лесть, в голове совсем мягкий хлебушек. Туда и дорога.

Аватар пользователя Pepenez
Pepenez(10 лет 6 месяцев)

ИИ это справочник. Такой же каким вначале был интернет, просто умеет в короткие ответы, хотя не всегда, но в большинстве случаев.