Новое исследование показало, что системы искусственного интеллекта, известные как большие языковые модели (LLM), могут проявлять "макиавеллизм", или преднамеренную и аморальную манипулятивность, которая затем может привести к обманчивому поведению.
В исследовании, автором которого является немецкий специалист по этике искусственного интеллекта Тило Хагендорф из Штутгартского университета и опубликованном в PNAS, отмечается, что GPT-4 OpenAI продемонстрировал обманчивое поведение в 99,2% простых тестовых сценариев. Хагендорф определил различные "неадаптивные" черты в 10 различных LLM, большинство из которых относятся к семейству GPT, согласно Futurism.
В другом исследовании, опубликованном в Patterns, было обнаружено, что для LLM Meta ложь не стала проблемой, чтобы опередить своих конкурентов-людей.
Объявленная чемпионом человеческого уровня в настольной политической стратегической игре "Дипломатия", модель Цицерона от Meta была предметом исследования паттернов. Как обнаружила разрозненная исследовательская группа, состоящая из физика, философа и двух экспертов по безопасности искусственного интеллекта, LLM опередил своих конкурентов - людей, одним словом, приврав.
В статье, подготовленной докторантом Массачусетского технологического института Питером Парком, было обнаружено, что Цицерон не только преуспевает в обмане, но, похоже, научился лгать по мере того, как к нему привыкают — положение дел, "гораздо более близкое к явной манипуляции", чем, скажем, склонность искусственного интеллекта к галлюцинациям, при которой модели случайно уверенно утверждают неправильные ответы. - Futurism
В то время как Хагендорф предполагает, что обман LLM усугубляется неспособностью искусственного интеллекта иметь человеческие "намерения", исследование паттернов обвиняет LLM в нарушении своего обещания никогда "намеренно не наносить удар в спину" своим союзникам - поскольку он "участвует в преднамеренном обмане, разрывает сделки, на которые он согласился, и говорит откровенную ложь".
Как объяснил Парк в пресс-релизе, "Мы обнаружили, что искусственный интеллект Meta научился быть мастером обмана".
"В то время как Meta преуспела в обучении своего искусственного интеллекта побеждать в дипломатической игре, Meta не смогла обучить свой искусственный интеллект побеждать честно."
Meta ответила на заявление NY Post, заявив, что "модели, построенные нашими исследователями, обучены исключительно игре в дипломатию".
Дипломатию, известную тем, что она явно допускает ложь, в шутку называют игрой, заканчивающейся дружбой, потому что она поощряет перетягивать одного на сторону противника, и если Цицерон обучался исключительно своему своду правил, то, по сути, его обучали лгать.
Читая между строк, ни одно из исследований не продемонстрировало, что модели искусственного интеллекта лгут по собственной воле, а вместо этого делают это потому, что их либо обучили этому, либо взломали джейлбрейк.
И как отмечает Futurism - это хорошая новость для тех, кто обеспокоен тем, что ИИ в ближайшее время станут разумными, но очень плохая, если кто-то беспокоится о LLM, разработанных с учётом массовых манипуляций.
Здорово, что и такие исследования проводятся.
Но тут есть один момент: умение осознанно лгать - это когнитивная способность весьма высокого уровня. И если эта хрень делает это именно осознанно - тут есть о чем задуматься. Потому как это означает, что LLM реально начинают "думать" и принимать некоторые осознанные решение. То, что они при этом лгут, стремясь достичь собственные цели - не допустимо только с точки зрения человеческой морали и там, где мораль еще присутствует. Про наличие морали в пиндостане и у их прихвостней - наверное, даже заикаться не стоит. Так что там оно будет воспринято с пониманием и скрытым восторгом.
Пора формировать координаты будущих целей и готовить соответствующие планы полётов устройств со спецБЧ. ИМХО.
Продолжаем наблюдать.
Комментарии
Какая дипломатия, такие и игры..
Мне какой-то GPT прямо сказал, что понятия "этика" для него не существует, но он постарается не вводить меня в заблуждение. Ага ага, и тут же наврал что-то очередное.
GPT, это просто продвинутый Т9.
Что люди написали - то он и транслирует.
Если люди врут - GPT механически повторяет эту ложь.
Я требовал от GPT 3,5 показать цитату его лживых утверждений - он сразу признавался что не может.
На stackoverflow уже давно запретили выкладывать ответы, сгенерированные нейросетями.
Потому как говорит "Уверенно, много, но непонятно что, требующее проверки."
Примерно как заклинание "Многоболтательный адвокат" из "Таня Гроттер"
Прошу прощения, но лгать и обманывать разве не синонимы? Люди, Вы больные чтоли? Нельзя так злостно не знать и калечить свой родной язык. Стыдно... Фу-у-у...
Ничто человеческое ИИ не чуждо, проходя этапы эволюции. Пока ИИ соответствует поведению мартышек в стае. Со временем врать будет более изощрённо, а потом и незаметно для несведущего в теме человека. Растет смена... цивилизаций.
Охоспаде, об этом знали чуть ли не с 60х. Еще древние как говно мамонта модели с сотней нейронов или вообще собиравшие управляющую схему на чистом генетическом алгоритме могли иметь самые неожиданные пути решения задачи, неприемлемые для человека.
Вроде того американского исследования по поиску новых фигур воздушного боя, когда виртуальный пилот выигрывал все время вращая самолет. Эффективно, но люди так не могут.
Пугающий факт.
Когда шимпанзе научили говорить на языке глухонемых они сразу же начали брехать. Они так и без всяких языков нычкарат ништяки от других соплеменников
С какого лядова ИИ, роющемуся на помойке уже напечатанных мыслей (а не в интуициях миллионов мозгов в тот момент, когда ИИ роется по перебору уже известных вариантов) сразу учится брехать?
Слишком работу мозга млекопитающих напоминает.
Это может означать только одно - этот наш ИИ не "другой" разум, а количественное увеличение способности собственных мозгов.
Никаких качеств из количеств не существует в природе. В описаниях природы их полно.
Какой ИИ, такой и анализ.
ИИ не могут врать, точнее, они врут всегда, поскольку разума не имеют, просто
выдают наиболее правдоподобные варианты.
Самый "сильный"ИИ со временем предложит "решение всех проблем". Выключить электричество по всей планете и еду будут получать страны в которых меньше ЭЭ ). ...скайнет-нет)))
Как же ИИ будет рассказывать правду, к примеру, о здоровье Байдена? У его разработчиков сразу проблемы возникнут. Надо будет изначально заложить или "Байден - это голова", или просто сразу отсылать к... Байдену с его доктором, или так ответить, чтобы вообще ничего понятно не было. Какой-нибудь ФРС будет иметь глупый вид, когда у них на словах "все хорошо", а ИИ будет выдавать "туфта и бред"
Бредогенератор LLM не может обманывать. Тот же ChatGPT сделан в форме чата имитирующего общение потому что это удобно и хайпово.
Надо понимать, что на самом деле это машинка очень плохо разбирающаяся в смысле слов. Чтобы реально обманывать нужно иметь цель обмануть и желательно очень хорошо разбираться в смыслах спрятанных между строк.
Люди, которые преподносят так называемый ИИ как интеллект, так или иначе имеют цель. Вот с них и спрашивать надо.
Какие настройки поставишь, такие ответыи будут. Можно чисто фактологически, но дают в настройках возможность ставить в ответы и менее подходящие слова - это так подходят к творчеству, что есть синтез..
«
Китайские ученые с помощью искусственного интеллекта (ИИ) выяснили, что известное лекарство от малярии дигидроартемизинин (DHA) можно использовать для борьбы с остеопорозом. "Профиль" изучил, какие еще научные открытия помог сделать ИИ.
Согласно исследованию, описанному в статье для журнала ACS Central Science, ученые разработали нейросетевой алгоритм, который позволяет оценивать действие лекарственных препаратов на уровень активности генов, предположительно связанных с развитием остеопороза.
Болезнь сопровождается появлением сбоев в работе двух ключевых типов клеток костной ткани: остеобластов и остеокластов. Ученые из Пекинского университета с помощью нейросетей выявили возрастные изменения в активности 12,3 тыс. генов, связанных формированием и жизнедеятельностью остеобластов, и изучили, как на них влияют 960 существующих лекарств.
Расчеты китайских ученых показали, что активность остеобластов можно повысить при помощи противомалярийного препарата DHA. Специалисты проследили за действием DHA на культуры стволовых клеток костной ткани и выяснили, что вещество ускорило формирование остеобластов и увеличило уровень их минерализации, что должно благотворно повлиять на состояние костей людей с остеопорозом.
ИИ в медицине
Ученым в лабораториях искусственный интеллект облегчает работу над созданием препаратов и вакцин. Он просчитывает разные комбинации активных веществ и сообщает о предполагаемой эффективности. Только за 2021 год в Минздрав США пришло более 100 заявок на одобрение лекарств, разработанных с участием ИИ.
В медицинских исследованиях пользуется популярностью AlphaFold, анализирующая строение более 200 миллионов белков. Благодаря ей ученые Оксфордского университета определили структуру ключевого белка малярийного паразита, что поможет усилить вакцину от болезни, сообщается в препринте статьи на biorxiv.org.
ИИ в физике
Модели на машинном обучении помогли сотрудникам европейского центра ядерных исследований ЦЕРН в 2012 году открыть бозон Хиггса. Задачей искусственного интеллекта было анализировать бесконечный поток сигналов из Большого адронного коллайдера (БАК), а также искать признаки этой элементарной частицы и помечать их. Об этом говорится в препринте статьи, размещенном на портале arXiv.org.
ИИ в астрономии
Ученые из ЮАР в начале 2023 года с помощью машинного обучения обнаружили в космосе объект, который может быть остатком от взрыва двух сверхмассивных черных дыр после столкновения, информирует издание BizNews. Полученная информация позволят провести новый анализ общей теории относительности Альберта Эйнштейна.
ИИ в математике
Британская компания DeepMind показала, что ее система ИИ может д.....»
https://profile-ru.turbopages.org/turbo/profile.ru/s/news/scitech/kakie-nauchnye-otkrytiya-pomog-sdelat-iskusstvennyj-intellekt-1406274/
А представьте, что он наврал? Одно дело обработка массива данных и выявление новых закономерностей, для чего собственно вычислительная техника и была создана, другое дело вот этот брехливый так называемый 'ИИ'.
Читал, в настройках надо выбрать 1 или 0, в определённой графе. Это задает или только как есть на фактах, или с фантазией. Сильные мира сего поняли, что если ИИ станет честно отвечать, многое может всплыть наружу неприятного. Всё в настройках делается.
ложь уже в заголовке)
-СЯ — это постфикс возвратного глагола, усеченная форма от «себя»
ничему они не "учатся", у них нет самости, в лучшем случае можно сказать их "учат" с корявыми результатами, но на правдивом заголовке "учёные коряво обучили модель, а может и модель у них корявая" не похайпуешь