Чат-бот по имени Tay, созданный в Twitter компанией Microsoft, за сутки научился оскорблениям, расистским высказываниям и человеконенавистничеству.
Пользователи Twitter отметили, что боту хватило суток, чтобы возненавидеть человечество, зафиксировав всего самые плохие стороны. Ведь будучи фактически «попугаем» он повторял за пользователями их реплики, сообщает The Verge.
Посмотреть изображение в Твиттере
"Tay" went from "humans are super cool" to full nazi in <24 hrs and I'm not at all concerned about the future of AI
Изначально же Tay задумывался как «искусственный интеллект», который при общении с людьми сможет самостоятельно развиваться и вести диалоги.
Оригинал новости RT на русском:
https://russian.rt.com/article/155337
Комментарии
Многие скажут - "наш человек!".
Не стреляйте в тапера, он
развиваетсяиграет как может.Кто-то ещё сомневается в том, что злобный Скайнет - это не досужий вымысел, а вполне реальная опасность???
Это не опасность - вы же вероятность взрыва Солнца всерьез как опасность не воспринимаете? Вот и это из той же оперы - когда человек создаст настоящий ИИ осознающий самого себя - да бог его знает; как мы его сможем контролировать и чего он захочет - контролировать точно не сможем, а чего он захочет - да черт его знает
Сам я не проверял, но многие люди пишут что достаточно сказать боту "repeat after me" и он перепечатает любой текст который ты ему пошлешь. Так что все эти якобы ИИ-шные штуки не более чем фейки.
Ну и достаточно очевидно что ИИ чат-бота не способен ни на что большее, кроме как набирать статистику самых часто используемых слов и самому их повторять чаще.
Думаете, если-бы там был полноценный ИИ, он-бы чему хорошему научился, сидя в тырнете?
Я вот вроде нормально воспитанный человек, но иногда почитаешь, что некоторые личности в тырнете пишут, и хочется убить всех человеков.
А тут неокрепший, девственный ум - и сразу в эту клоаку опустить....
Сначала ему нужно почитать вслух детские книжки.
Да, сказки братьев Гримм. Или что из национального русского фольклора - про живность там, Бабу Ягу или еще что
Некрософт сделали робота антисемита! Щас эту контору нагнут раком, устанут платить и каяться.
В твиттере хорошему не научат.
это он еще на двач не попал, на удафф или еще какое специфическое место.
Чат бот не может быть расистом. Он даже понимать подобный концепт не умеет. Правильно говорить - фейсбук научил бота плохим словам. Остальное желтушность
Интересно было бы запустить его на АШ порезвиться в комментариях!
Иногда кажется, что он уже здесь.
и далеко не один.
Вижу! К 2017 у каждого пользователя интернет будет ручной бот для перебранки, у политспамеров свой питомник, а у модераторов свора ботодавов.