"Искусственный интеллект - это будущее не только России, это будущее всего человечества. Здесь колоссальные возможности и трудно прогнозируемые сегодня угрозы"
В.В. Путин
ИИ-боты на зарубежной дискуссионной площадке reddit, генерирующие аргументы, оказались в 6 раз убедительнее чем люди, вызвав этические споры после разоблачения эксперимента.
Есть такой подреддит r/ChangeMyView: его правило простое - автор делится твёрдым убеждением, а комментаторы стараются аргументированно изменить его точку зрения; если у них выходит, автор награждает их ачивкой – «дельтой» (∆), что на сабе считается символом убедительности и интеллектуальной добросовестности
Благодаря жёсткой модерации и культуре вежливой полемики сабреддит давно служит «полигоном» для тренировки аргументации
Учёные провели секретный (https://www.404media.co/researchers-secretly-ran-a-massive-unauthorized-...) эксперимент на Reddit: они создали тринадцать аккаунтов-фейков с двумя координирующимися языковыми моделями на каждый аккаунт:
– Первая сканировала историю постов каждого оппонента, вычленяя вероятный возраст, пол, мировоззрение и эмоциональные триггеры
– Вторая, исходя из этого профиля, генерировала ответ, рассчитанный на максимальное изменение мнения
С ноября 2024 года боты оставили около полутора тысяч комментариев и получили более сотни «дельт» - свидетельств того, что авторы исходных постов действительно поменяли позицию. Для сравнения: среднестатистическому участнику сабреддита нужно в шесть раз больше попыток, чтобы добиться таких результатов
Эффективность объяснялась не только персонализацией - LLM «подстраивались» под стилистику Reddit, включая сленг («TL;DR» в начале, саркастические сноски в конце). При этом боты часто изобретали биографии: один позиционировал себя как «жертва изнасилования», другой - как «белая женщина в почти полностью чёрном коллективе», третий - как рядовой муниципальный служащий и тп – такие «галлюцинации» повышали эмоциональную убедительность
25 апреля 2025 года модераторы r/ChangeMyView обнародовали список подозрительных аккаунтов и черновик статьи «Can AI Change Your View?». Началась бурная дискуссия о границах этики: пользователи сочли эксперимент манипуляцией, университетская комиссия вынесла исследователям предупреждение, и теперь люди требуют изъять работу из публикационного процесса
В интернете будущего, нейронки будут спорить с нейронками, получается так.
Очень интересная тенденция.
Да, пример прикольный.
Если убрать хайповость заголовка, и более правильно обозначить проблему (а на мой взгляд она может сформулирована, например, так: "при правильном выборе алгоритма и целенаправленных действиях бот на основе LLM может быть в 6 раз более эффективным с точки зрения убеждения человека изменить свою точку зрения на какую-то проблему, чем произвольный человек-участник общения".
То есть - специально настроенный, специально обученный робот - в каком-то вопросе эффективнее, чем произвольный человек. И почему это должно вызывать удивление? Вот экскаватор - он лучше человека копать умеет. Удивительно? Нет? А в болтологии - удивительно... Ну-ну...
Продолжаем наблюдать.
Комментарии
Так понятно, у людей логика и изложение часто сбиваются эмоциями, а для алгоритмов тут чистая математика на объеме доступных БД...
Думаю что проблема еще и в мотивированности. Что-бы качественно аргументировать свою точку зрения надо провести немалую работу, изучить источники, погрузиться в проблему, изучить критику источников и разных точек зрения. Это все немалая работа, и проделывать ее просто что-бы убедить в чем-то какого-то нонейма в сети..
А ИИ все это проделывает без особого труда и довольно быстро, ему это просто сделать. Проблема тут только в том, что ИИ не мыслит, ничего не обдумывает, он просто по очень хитрому алгоритму компилирует тексты, поэтому на выходе может быть достаточно убедительно выглядящая чушь, которую ИИ может "подтвердить" мегабайтами других текстов. Соревноваться с таким бредогенератором в аргументации, это как мочиться против ветра, он тебя все равно "переспорит".
Телевидение наше посмотрите, там ИИ уже даже и не нужен, одни сплошные биороботы с продажными мозгами. Говорят исключительно то, что видят на электронном суфлёре и за что им платят хозяева. Поэтому да, осталось с помощью ИИ окончательно взять под контроль соцсети и сообщения обычных пользователей, а любой альтернативный контент и так уже заблокировали. Цифровой концлагерь (с тотальным контролем от паразитической верхушки) в действии!
Большинство людей не способны и на это.
Причем не способны в принципе, даже если им дать алгоритм, они будут сами перепрошиваться в процессе убеждения контрагента.
Ну что поделать. Биология.
У ботов есть преимущество - скорость аргументации выше на порядки. Убедить человека проще, чем переубедить, так как целеполагание человека в своей основе иррационально. Поэтому ”real politic" нынче строится на "коротких фейках”, когда объект манипуляции ставят в узкие информационные и временнЫе рамки, вынуждая его совершать ошибки, которые по итогу оборачивают против него.
Специализированный инструмент, которому поставили конкретную цель, оказался лучше, чем обычный человек, которому никакой цели достигать никто не говорил. Британские учёные снова на проводе?
Полностью согласен. Вы успели раньше меня удачно сформулировать :-)
Возможно, не столь силен отдельный искусственный, сколь слаб нынешний массовый естественный интеллект.
Нет, в данном примере всё проще: оценка ставится по задаче, которую естественному никто и не ставил. В то время как ИИ специально настраивали на эту задачу и ничем больше он не занимался.
Вы прочитали текст? У естественного именно такая задача и стояла. И даже метрики успешности были разработаны и использованы для сравнения.
Где она у естественного стояла?
Кто это среднестатистическому участнику задачи ставил?
Т.е. это такой сабреддит, на котором естественный интеллект как раз и упражняется в решении этой задачи. Множество людей это делают уже давно.
Они упражняются, но не ставят это прям своей целью. То есть тратят на это столько ресурсов и времени, сколько не жалко. Успел, не успел - это вторично.
бан, за словоблудство
Цель в этом сабреддите - переубедить топикстартера с его стартовой точкой зрения.
Что за это бывает в награду? Какой смысл обычному человеку идти прям до конца, тратить на это все знания и способности? Это как среднего игромана с киберспортсменом сравнить.
>Интернет с авторизацией через госуслуги всё ближе
Ниочём, какой-нить алекс-нож зайдёт в интернет по своему ID и поставит бота в работу. Интернет по паспорту нужен для контроля за населением и профилактики мыслепреступлений.
Да, дебилы всегда переживают, что у них кто-то чего-то заберёт.
Демы уже вон профукали выборы через Твиттер, так что это чисто вопрос времени, когда за влияние на выборы через ИИ будет уголовка
Люди-боты потеряют работу!
это они подбираются к исследованию как раз эмоций человека ...видимо и эту составляющую хотят впихнуть в ИИ
Почему "видимо"? С первых ботов стало понятно, что главная цель - манипуляция толпой.
Давно уже есть стандартные библиотеки для определения тональности, "токсичности" текстов, короче - этих самых эмоций. Так что не подбираются, а уже вовсю...
не думаю что так вот все просто ..всякие там библиотеки и базейки
им еще надо со многими прежде выпить не мало , что бы хоть немного правильно понимать эмоции :)))
Так это смотря какие задачи ставить. Ежели выбирать спутника жизни "пока смерть не разлучит нас", это одно, а если "человека, который с вероятностью более 85% при соответствующем подходе подожжет релейный шкаф" - то вполне себе по зубам и сейчас.
ну и диапазончик !
Надо брать на вооружение.
И в чем новость? Нейросети языковые не сегодня появились. Они и год назад были убедительнее. Сейчас еще продвинулись.
А на нормальных людях пробовали?
Есть ОЧЕНЬ серьезно подозрение что да - пробовали.
Успешно. Только не ученые из университетов а специалисты на госслужбе. В разных странах.
Ага, и получили аудиторию реддита.
Был уже фантастический рассказ на данную тему.
О ИИ, который генерировал утверждение, которое вызывало наибольшее количество споров на Reddit.
Т.е. так, чтобы приблизительно половине участников оно казалось абсолютно тривиально истинным - а половине - очевидно, тривиально, абсолютно ложным.
Сортировка по спорности (Резак Шири)
Ага, оно. Забыл автора и название, и сходу найти не смог.
Ничего нового! Это, блин, еще Лао- и Сунь-Цзы предсказывали.
Ха-ха, не нравится им видите ли. Китайцу-чемпиону по игре Го тоже не нравилось, что его обыграл компьютер. И англичанам не нравилось, что они шифрограммы немецкие не могут прочитать, пока Энигму не заполучили.
Привыкаем теперь.
это очень интересная тема в целом, и с LLM/AI мы там когда-нибудь точно будем.
. Предыдущая подобная работа от OpenAI (Sep 2024) c этим же сайтом, показала увеличение эффективности около 20% (не знаю использовали ли они профайлинг. Кстати, сам профайлинг может иметь противоположный ожидаемому результат - при явном использовании, люди начинают думать, что за ними охотятся или CIA, или КГБ (см.п.3).
Но у "исследования" есть ньансы - например, (1) предварительное profiling пользователей, казалось бы, должно было дать значительное преимущество LLM , (2) как кто-то в комментах здесь отметил, "переубеждение" оппонента не было "целью жизни пользователей, ну и (3) "дельты" не очень хорошая мера эффективности, поскольку присваиваются автоматически, если оппонент не ответил в течении 3х часов - можно представить, что многим просто надоело спорить с болтливой LLM
Ну вот и ответ "зачем блокировать? а что такова, если ютуб будет знать, что я люблю смотреть??". Изготовление индивидуальных "отмычек" для каждого на потоке в реалтайме. Площадка не наша, результаты анализа не у нас, нам ответить симметрично нечем - даже если наш видеохостинг будет популярен у 90% нашего населения это только наше население, в обратку не сыграешь....
Кстати, предлагал я plvideo.ru (ну пока был кровно, так сказать, заинтересован в их развитии) "киллерфичу", когда их без их предупреждения в июне 2024 депутаты высветили как "убийцу ютуба" - сделать не просто импорт видео, но и копировать путь в url после домена, и код встраивания в страницу, аналогичный ютубу, чтобы, например, всякие образовательные хостинги, перетянув свои видео просто в шаблоне сайта поменяли youtube.com на plvideo.ru и все снова залетало у них. Сказали "круто", но руки не дошли у них....
Теперь ждем новость "Способность больших языковых моделей к убеждению малых языковых моделей"))