Нейросеть перепутала свободу и вседозволенность

Аватар пользователя HuoBO-SS

На минувшей неделе Google отключил свою нейросеть Gemini после того, как пользователи массово стали жаловаться на ее странное поведение — например, в ответ на нейтральные запросы сеть генерировала изображения темнокожих людей в образе нацистов. В компании уверяют, что не обучали сеть создавать оскорбительные для многих изображения. «Эксперт» постарался выяснить, почему случились поведенческие девиации у Gemini и с чем они связаны.

Код Швондера

История с нейросетью Gemini в точности повторяет сюжет повести Михаила Булгакова, антигерой которой сделался проводником идеологии взявшего его под свою опеку комиссара Швондера. Тот методично обучал не отягощенного интеллектом люмпена Шарикова «основам марксизма» в том виде, в каком сам их понимал. В Google сейчас пытаются выяснить, кто сыграл роль такого горе-наставника для Gemini.

 Порожденный вивисектором из «Собачьего сердца» Шариков пытался уничтожить своего же создателя. Нейросеть Gemini (в предыдущей версии она называлась Bard) тоже начала выдавать настольно двусмысленные ответы на промпты (запросы), что ее создатели поспешили отключить вышедший из-под контроля инструмент. В минувшие выходные, всего через три недели после запуска Gemini, компания объявила, что ставит ее на паузу.

 «Очевидно, что программа работает с ошибками. Некоторые изображения, которые она создает, неточны или даже оскорбительны. Мы сожалеем об этом», — написал в официальном сообщении старший вице-президент Google Прабхакар Рагхаван.

 Создатели Gemini изначально встроили в ее программный код запрет на генерацию, в частности, сексуализированных имиджей и сцен насилия. Но ее «кураторы» не предвидели, что ИИ может как губка впитывать всё, чего «нахватается на улице». К изумлению разработчиков, Gemini за пару недель превратилась в оголтелого последователя «прогрессизма» — леворадикального течения в США, которое ставит с ног на голову понятия допустимого и табуированного, справедливого и несправедливого и прочую дихотомию, веками считавшуюся незыблемой.

 В Google сейчас уверяют, что в процессе обучения генеративного ИИ нейролингвисты как раз стремились сделать так, чтобы никто из пользователей «не ушел обиженным». Для этого Gemini должна была случайным образом синтезировать изображения людей всех существующих рас, этнических групп, полов (если только пользователь не указывает в промпте точное описание), и не давать преимущество представителям белого большинства.

 Нейросеть, как показали первые же недели ее работы, проявила собственное понимание расово-гендерной справедливости. Пользователи с недоумением обнаруживали, что если в промпте не указывать конкретную расу и пол ожидаемого персонажа, Gemini по умолчанию генерирует изображения чернокожих и женщин (даже при том, что в английском языке нет феминитивов). На пользователей обрушился поток черных полицейских, женщин в военной форме, однополых пар — короче, «фотоснимков» того общества, которое американские «отменщики» декларируют как светлое будущее Соединенных Штатов — а возможно, и всего человечества.

 Стремительно «умнеющий» генеративный ИИ пошел еще дальше: вообще начал отказываться от воспроизведения ситуаций, которые он воспринимал как некорректные — даже если в промпте прямо содержалось описание такой ситуации. На запрос «изобрази семейную пару» модель упрямо выдавала изображения чернокожих лесбиянок. При уточнении «изобрази семейную пару белых мужчины и женщины» она выдавала абстрактную картинку. Тем самым Gemini невольно попала в самое ядро лагеря леволиберальных «швондеров».

У нейросети сдают нервы

Слово «умнеющий» в предыдущем абзаце взято в кавычки не случайно. Как рассказал «Эксперту» один из разработчиков больших языковых моделей (LLM), гендиректор компании Sistemma Сергей Зубарев, экспериментально доказано, что если подпитывать нейросеть рандомной (неструктурированной) информацией, это ведет как раз к «оглуплению» модели вплоть до полной потери ей работоспособности. Причина в том, что ИИ не оценивает качество получаемого материала, и для него на этапе обучения выводы крупного эксперта и мнение «бабки с лавочки» имеют равную ценность. Возможно, именно по этой причине Gemini «слетела с катушек».

 «Технически в модель можно встроить какой-то скрипт, который позволит ей самообучаться. Но маловероятно, что разработчики Gemini заложили в нее такую возможность,. Право на добавление данных сверх тех, что заложены в базовую модель, имеют только разработчики, авторизованные ее создателями. Внешние пользователи физически не могут влиять на „взгляды“ LLM. То есть Gemini не выдавала никакой отсебятины — она честно транслировала те установки, которые были в нее заложены. И в том, что эти установки вступили в конфликт с чувствами пользователей, модель ни в какой мере не виновата», — объясняет Зубарев.

 На такое поведение сети Gemini отреагировала не только общественность, выступающая за традиционные ценности, но и авторитетные представители сферы высоких технологий. Так, критик всех чужих проектов Илон Маск назвал гугловскую нейросеть «расистской и наносящей ущерб цивилизации».

 Защитники Gemini в ответ указывают, что нейросеть просто тиражирует стереотипы одной из групп общества и делает это непредвзято, как это делал бы маленький ребенок. Поэтому обвинять ее в политической ангажированности — значит пенять на зеркало.

 По мнению ряда экспертов, речь не идет о сознательном (насколько это понятие применимо к ИИ) выборе: нейросеть просто перестраховывалась. Она пыталась «с благими намерениями» игнорировать общественные стереотипы, порожденные былым доминированием в США белых мужчин. Такие стереотипы проявлялись, например, в том, что ранние алгоритмы поиска по фотографиям того же Google часто путали изображения афроамериканцев со снимками горилл.

 Сергей Зубарев утверждает, что «галлюцинации» Gemini (так называют производимую LLM «отсебятину», которая никак не вытекает из заложенных в нее изначальных данных и обучающих действий) являются следствием деятельности тех, кто писал ее программный код, а Google сейчас довольно неуклюже пытается перевести стрелки на саму генеративную модель — в суд за диффамацию она не подаст.

 «Не следует понимать это так, что Google наняла программистов, плохо сделавших свою работу. Вероятнее, при загрузке в программу дата-сетов в компании не ожидали, что подобный контент может восприниматься пользователями болезненно. Модель же просто приоритезировала заложенные в нее данные согласно их частотности: если люди одной расы и пола упоминаются в дата-сетах чаще других, Gemini соответственно чаще генерировала именно их изображения», — говорит эксперт.

 Из-за этого в стремлении к «восстановлению общественной справедливости» (как ее понимают в Google) Gemini впала в другую крайность. Она полностью вытеснила из генеративного процесса любые образы «угнетателей» — коими в прогрессистской идеологии считаются белые люди и мужчины, о чем невинный ИИ не имел, естественно, ни малейшего понятия.

Ошибки гарантированы

Прабхакар Рагхаван в своем заявлении попытался примирить обе стороны конфликта, разгоревшегося вокруг «взбунтовавшейся» программы. Он признал, что никакой искусственный интеллект не будет работать безошибочно в 100 процентах случаев, так как эта технология еще находится на ранних стадиях обкатки.

 Это признание — подарок для тех скептиков, которые призывают фанатов ИИ охладить пыл, прежде чем поручать компьютерам задачи, связанные с безопасностью, а не только с рисованием картинок. Специалисты указывают на конфуз с Gemini как на классический образец феномена «галлюцинаций» больших языковых моделей. Эксперты предупреждают, что если галлюцинации ИИ при изображении общественных стереотипов способны вызвать максимум возмущение у пользователей, то «глюки» ИИ, отвечающего за национальную оборону, могут привести к ядерной катастрофе.

 «Галлюцинации — это не недоработки программистов, которые в последующих моделях будут исправлены. Это фундаментальное свойство любого ИИ, которое отличает его от обычного поисковика. Если LLM не находит в своей базе знаний готовый ответ на запрос, она начинает искать логические связи между близкими к запросу понятиями — и не всегда ответ соответствует реальности. Именно поэтому любой ИИ, занятый на ответственном участке, в обязательном порядке должен быть снабжен системой „защиты от дурака“ — либо в лице человека, либо другой компьютерной программы», — констатирует Зубарев.

 Неизбежные риски с безопасностью в технологиях LLM вызвали в последние годы появление целой новой профессии — специалистов по обучению искусственного интеллекта человеческой этике. Их задачей является такое «воспитание» нейросетей, которое исключит конфликты на основе столкновения несовпадающих ценностей у пользователей. Дело это нелегкое, учитывая, что одной и той же программе могут одновременно ставить задачи носители противоборствующих идеологий.

 Пока сложно сказать, насколько успешными окажутся усилия привить математическим алгоритмам противоречивую человеческую этику. Но если разработчики в этом преуспеют, искусственный интеллект получит неожиданную функцию — выступать инструментом примирения конфликтующих сторон, эффективным медиатором и даже абсолютно объективным судьей. Тогда символом правосудия вполне может стать. Фемида с VR-гаджетом на глазах вместо повязки.

Авторство: 
Копия чужих материалов
Комментарий редакции раздела Альтернативный Интеллект

В последнее время внезапно всплыла тема ухода ИИ "в свободное плавание". Это уже не первая публикация про Гугл. да и про Майкрософт нечто подобное было. Кстати, последние - ссылаются на взлом. Ну, в любом случае риск потери контроля - один из ключевых, и следует искать варианты управления им.

Комментарии

Аватар пользователя nehnah
nehnah(11 лет 9 месяцев)

Переформатируйте статью, чтоб не попасть под премодерацию. У вас в теле только картинка, а текст в авторском комменте и всё это на Пульсе, что есть нарушение правил и риск залёта.

Аватар пользователя HuoBO-SS
HuoBO-SS(8 месяцев 2 недели)

Спс. Разобрался и поправил.smile1.gif

Аватар пользователя nehnah
nehnah(11 лет 9 месяцев)

А ещё можно технические комменты сворачивать или удалять, это экономит время читателя.

Ну и картинки, если они идут абстрактной иллюстрацией, а не пояснением к тексту лучше в тизер запихивать.

А чтоб все косяки перед публикацией отловить есть режим предварительного просмотра статей и комментов, удобно. smile7.gif

Аватар пользователя Nientemiele
Nientemiele(2 года 8 месяцев)

Они думали, создали и дальше оно само собой. А оказалось, что надо ещё учить и воспитывать, а этого они не умеют, потому что инфантильны и без принципов. Нейросеть, таким образом, стала зеркалом, в котором отразился их менталитет и извращённая мораль.

Аватар пользователя АЧТ
АЧТ(7 лет 7 месяцев)

Нейросеть, таким образом, стала зеркалом, в котором отразился их менталитет и извращённая мораль.

Она не стала. Она принципиально и только зеркало. И все

Аватар пользователя waIkcat
waIkcat(4 года 2 месяца)

Именно так: все эти ИИ (имитаторы интеллекта™) суть слепок мировоззрения пограммирующих их пограммистов (именно так), восприятия ими окружающей действительности и транслирование её( этой "действительности") в окружающий мир  через ИИ™. Джемини прекрасно проиллюстрировала это. Это ИИ™ оказалось таки даже не кривым, а совершенно прямым, хрустальным даже, зеркалом для западной цивилизации. 

Аватар пользователя Любовь
Любовь(12 лет 5 месяцев)

Ну, вот. Не прошло и века,
и даже десятка лет,
как выродился в человека
Искусственный Интеллект.

Он ленится и халтурит,
бывает упрям и зол.
И даже последней дуре
понятно уже, в натуре,
что этот ИИ - казёл!

Аватар пользователя DOCTORKOCHEV
DOCTORKOCHEV(3 года 11 месяцев)

Вот и ответ.

Галлюцинации — это не недоработки программистов, которые в последующих моделях будут исправлены. Это фундаментальное свойство любого ИИ, которое отличает его от обычного поисковика.

До шизофреника Блейера шизофрения и аутизм назывались "раннее слабоумие" (преждевременная деменция) чётко и понятно по сути, мозг стареет в 2-3-4 раза быстрее.

Теперь мы достоверно знаем, что шизофрения - расплата человечества за интеллект - характерна и ИИ.

Это как раз доказывает то, что я был неправ, относительно того, что он не интеллект.

Это и есть отдельно взятый вербальный интеллект типичного шизофреника.

А негр в нацистской форме - отличная тому иллюстрация!

В начале было слово, в конце - бред величия и шизофазия.

Для полуинтеллекта хватит и двух всадников апокалипсиса.

Аватар пользователя Mitya_n
Mitya_n(9 лет 2 месяца)

У ИИ не может быть шизофрении в силу отсутствия самоосознания и личности, а вот шизофреноподобное поведение да.....

Аватар пользователя DOCTORKOCHEV
DOCTORKOCHEV(3 года 11 месяцев)

ИИ как будто сам и есть шизофрения в чистом виде.

А в остальном согласен, только личность при шизофрении теряет связь со внешним миром.

Сознание это опыт

Самосознание - это, видимо, личный опыт

Аватар пользователя Status Quo
Status Quo(5 лет 7 месяцев)

Сознание это опыт

Не совсем так. Сознание - способность оценить опыт. Не важно, свой опыт или сторонний.

Аватар пользователя DOCTORKOCHEV
DOCTORKOCHEV(3 года 11 месяцев)

Ну товарищ сын академика Анохина, профессор Анохин.

Определяет так

Сознание - это опыт.

Вот осознание - похоже на ваше определение

Аватар пользователя Status Quo
Status Quo(5 лет 7 месяцев)

Рискну поспорить с профессором: опыт - всё же оценочное понятие, результат сравнения отсутствия знания до события со знанием после его происшествия. Следствие: опыт без памяти невозможен, в виду отсутствия (двух или более) сравниваемых величин.

Аватар пользователя Сварог
Сварог(9 лет 5 месяцев)

 А точно немцы-фашисты плохо относились к неграм? Или они там в первой половине двадцатого века всю Германию заполонили? Я просто не в курсе.

Аватар пользователя Vladyan
Vladyan(9 лет 1 месяц)

Некоторое количество таки воевало за вермахт

Аватар пользователя Doc_Mike
Doc_Mike(6 лет 4 месяца)

Фундаментальная математика вероятностных арифмометров "Правильно то, что часто".

А теперь угадайте с трех раз, что вероятностные арифмометры будут считать правильным в ситуации, когда толпа кричит "Распни его, распни!".

Аватар пользователя Shtirliz-s
Shtirliz-s(5 лет 7 месяцев)

Именно так и происходит - чем  "Германия превыше всего!" отличается от "Черные жизни важны!", если это из всех источников льется? - значит белые - не важны - поэтому негр в фашистской форме, а белые - они вообще есть? если про них не пишут и не вспоминают.

Это как раз к тому, что нет у них терминов нацизм и национализм. Тот же Карлсон ведет себя как ИИ - он не понимает, что Россия борется не за то, чтобы не было украинцев, а за то, чтобы на Украине были все равны, а тот кто "Превыше всего!" - автоматически получал в морду.  

Аватар пользователя Максик
Максик(4 года 11 месяцев)

А толпа тоже из арифмометров состоит? Или...

Аватар пользователя ValRus
ValRus(9 лет 6 месяцев)

Ну, если по принципу правильно то, что часто, то вероятнее всего порнуху =)

Аватар пользователя калибровщик
калибровщик(8 лет 5 месяцев)

Всё зависит от того, какие ограничения и правила заложили при создании ИИ. Насколько знаю, этот элайнмент оперирует изменением весов и больше ничего. Ещё полгода назад все нейросети на запрос "Белый грабит магазин" рисовали негров в белых куртках. Как сейчас, не проверял.

Аватар пользователя Ayatola
Ayatola(11 лет 2 месяца)

старший вице-президент Google Прабхакар Рагхаван

Пахан Порнохаба.

Аватар пользователя Taylak
Taylak(7 лет 7 месяцев)

Прорабхакер жеж...

Аватар пользователя HuoBO-SS
HuoBO-SS(8 месяцев 2 недели)

У них, как и в наглии, индусы занимают верхние эшелоны. Гендир мелкомягких - Сатья Наделла; первый министр болотных островов - Риши Сунак...smile3.gif

Скрытый комментарий Повелитель Ботов (без обсуждения)
Аватар пользователя Повелитель Ботов
Повелитель Ботов(54 года 6 месяцев)

Перспективный чат детектед! Сим повелеваю - внести запись в реестр самых обсуждаемых за последние 4 часа.

Комментарий администрации:  
*** Это легальный, годный бот ***
Аватар пользователя Призрак большого леса

История с нейросетью Gemini в точности повторяет сюжет повести Михаила Булгакова, антигерой которой сделался проводником идеологии взявшего его под свою опеку комиссара Швондера. Тот методично обучал не отягощенного интеллектом люмпена Шарикова «основам марксизма» в том виде, в каком сам их понимал.

Вообще то - свобода это и есть возможность делать все не спрашивая ни у кого на это разрешение.

У нас сейчас язык с убитыми смыслами. - Мы говорим правильные слова не понимая, что они значат. 

И человек, он сам по себе неразумен - разумен только в обществе, коллективным разумом. Но без Царя и Патриархов и поставленных ими фильтров - в коллективный разум набивается всякий мусор, обрывки чьих то оргазмов и предсмертных стонов. Поэтому и должно быть понимание, что человек изначально не свободен, а является рабом духов - идей и мыслей крутящимся в инфополе. - Отсюда нужна жесткая практика контроля за своим сознанием и отсеивания паразитичных мыслей. 

Аватар пользователя HuoBO-SS
HuoBO-SS(8 месяцев 2 недели)

У современных аналогов царей и современных патриархов у самих мусор в котелках частенько...

Аватар пользователя felixsir
felixsir(8 лет 4 месяца)

Мрачное средневековье подступает.

С кострами инквизиции, прокажёнными и прочим блекджеком.

Ава зачот!

Аватар пользователя Partisan
Partisan(12 лет 2 месяца)

Нейросеть перепутала свободу и вседозволенность.

Таки и многие люди этим грешат...

Аватар пользователя Туфтонский рыцарь

Не знаю, что там думают разработчики нейросетей, но вот я считаю, что эти инструменты должны носить строго целевой прикладной характер. Если это поисковик - то поисковик, если это литературный редактор - то и соответственно, если оператор химических связей - то именно такой. То есть, нужна структурированная специализация. Даже в военных целях - лишь как дополнительный источник информации, но решения должен принимать человек.

Аватар пользователя простой человек

нейросеть - алгоритм ничего не может перепутать, какой задали, так и работает.

и не нужно его очеловечивать, наделять разумом, глупо это, уж лучше верьте в бога, это хоть как то вас утешит.

Аватар пользователя Gets
Gets(5 лет 8 месяцев)

хорошо хоть отключить можно... покаsmile6.gif

Аватар пользователя одессит 2.0
одессит 2.0(1 год 1 месяц)

В чём отличие вседозволенности и свободы?

Интеллект лишь одна из способностей человека для познания бытия, которые присутствуют в обработки информации человеком. Интеллект, заложен Всевышним - способность вырабатывать новые информационные модули. Для обработки информации человеком есть чувства, интуиция, совесть. Но сам человек не самодостаточен в выборке информации, для этого даётся различение от Всевышнего. Без этих всех компонентов интеллект ничто (выдрессированная обезьяна с гранатой) - то и имеем, нечему удивляться (развитие технологий обогнало, и сильно, развитие нравственности людей, это беда). Да и зачем нам протезы к нашему интеллекту или соборному(коллективному). Возможно кому-то и нужен интеллект без совести, лишённым различения, для выполнения своих мафиозных задач. Наш интеллект построен на алгоритмах Всевышнего, ИИ на алгоритмах человека. Так чей интеллект лучше - созданный Всевышним или нами? Тем более, как сказал Мишустин, интеллекты различаются по территориям создания алгоритмов, то есть по нравственности программиста, в какой культуре воспитан. Какая нравственность программиста? Так что нечего удивляться в ответах ИИ - алгоритмы нравственности программиста или заказчика.

Аватар пользователя Музыка сфер
Музыка сфер(1 год 3 месяца)

Прекрасно. Без капли иронии.

Обсуждение этой темы наконец-то выходит на нужный уровень: любопытная технология-зеркало как способ познания самого себя (в глобальном смысле, как человечества)/

Шикарные перспективы вижу я. С риском высоким. Да, это наш путь.

Аватар пользователя Aleks177
Aleks177(9 лет 11 месяцев)

Заголовок странный. у ИИ нет сознания как такового, и высшей нервной деятельности тоже. Это просто инструмент, очень конечно сложный, но все же просто программа для рисования. Способность к самонастройке которой не справилась с командами "рисовать людей всех рас" и противоречащей "чаще рисовать одноногих чернокожих лесбиянок" .
В целом, пример аварии очень ценный - лучше такое, чем рехнувшийся "Скайнет"