Компания «Майкрософт» заменила журналистов искусственным интеллектом. Через неделю его обвинили в расизме
Это далеко не первый случай, когда роботы нарываются на неприятности из-за "идеологических воззрений"
Провалом закончилась антикризисная инициатива «Майкрософта». Компания в разгар пандемии решила уволить всех людей-журналистов, издающих сайт MSN.com, и заменила их искусственным интеллектом. Через неделю роботы вляпались в расистский скандал. И это далеко не единственный пример, когда на бездушные машины обижались люди разных рас.
Роботы прогневали певицу
Портал MSN.com – это популярный агрегатор новостей, с огромной аудиторией. Искусственный интеллект отбирает достойные на его взгляд статьи из разных источников и создает на их основе публикации. Полученными от трафика рекламными доходами «Майкрософт» делится с первоисточниками. Все шло более-менее неплохо, пока алгоритм не решил написать про британскую группу Little Mix. И подорвался на мине расизма.
MSN.com опубликовали историю, как солистка Little Mix Джейд Фёруолл сталкивалась с расизмом, но нейросети перепутали певицу с другой участницей группы и опубликовали фото Ли-Энн Пиннок. Возмущению Фёруолл было безграничным. «MSN, если вы собираетесь копировать и вставлять статьи из других, заслуживающих доверия СМИ, то должны сначала убедиться, что используете изображение нужного участника группы смешанной расы», - писала она гневные посты в соцсетях. «Меня оскорбляет, что вы не можете различить двух цветных женщин в группе из четырех человек... Старайтесь лучше!», - возмущалась певица, не подозревая, что все ее выпады адресуются искусственному интеллекту.
Ошибку тут же исправили. Перед шоу-дивой извинились. Тем не менее, история совпала с волной протестов против расовой дискриминации, которая прокатилась по всей Америке, и вызвала большой скандал.
«Умный» дозатор: мыло только для белых
Это далеко не первый случай, когда роботы были обвинены в расизме. Ранее под раздачу попал чересчур «умный» дозатор мыла. Он выдавал моющее средство в руки белым людям и игнорировал чернокожих. Во всем оказался виноват датчик света – он, видимо, не обладал нужной чувствительностью, чтобы считывать темные оттенки кожи.
Впрочем, схожие проблемы были, например, у крупных производителей фотоаппаратов. Чересчур предупредительная техника все время напоминала хозяину, что он моргает во время фотографий. А от возмущался – пользователь был азиатом и его разрез глаз фотоаппарат воспринимать отказывался наотрез.
У автопилотов «Теслы» могут быть проблемы
Но самый большие проблемы с расизмом могут возникнуть у роботов-водителей. В прошлом году вышло исследование Технологического института Джорджии, согласно которому искусственный интеллект, управляющий автомобилями без участия человека, с большой вероятностью задавит темнокожего, чем белого. В среднем они обнаружили, что системы были на 5 процентов менее точными при обнаружении людей с более темными оттенками кожи. То есть у автомобилей с роботами-водителями примерно те же проблемы, что и у дозаторов мыла.
Так что «Тесла» с автопилотами еще повезло, что данное исследование вышло в 2019 году. Если бы ученые запоздали со своими выводами и сделали их сейчас, у борцов с расизмом стало бы на одну цель больше.
Системы голосового и текстового распознавания все чаще стали подвергаться критике — последнее исследование ученых Массачусетского университета показало, что голосовая связь, чат-боты и другие технологии на базе искусственного интеллекта часто не способны различить речевые особенности национальных меньшинств. На первый взгляд, проблема не заслуживает внимания, однако ввиду повсеместного внедрения таких систем ее игнорирование усугубляет дискриминацию некоторых групп населения.
Комментарии
Это пять! Типа зачем вам мыло, такое не отмыть
По тесле понятно, негр сливается с окружающим фоном и датчикам надо повысить чувствительность
По певице - нужно увеличить число реперных точек для более точной идентификации, тоже в принципе ничего сложного
Там много проблем: мало того, что афроамериканцы "по фене ботают" используя сленг, так еще у них сильный или необычный акцент...
https://www.technologyreview.com/2017/08/16/149652/ai-programs-are-learn...
По каким реперным точкам удалось определить
Моргана Фрименаэту певицу?Искусственный интеллект против естественного.
Это и есть расизм.
Раса компьютеров заявляет свои права.
Долой компьютерное рабство !
Все на виртуальные баррикады !
Правильно все говорят.
Так можно много до чего договориться. ALM - Artificial Lifes Matter. Встаёт вопрос - а как быть с игровыми персонажами?
Касперский:
https://aftershock.news/?q=node/867981
Женя, ты не прав.
Нет, прав конечно, НО - то что сейчас называют "искусственный интеллект" в среде обывателя, ни что иное как красивая фантастика.
А реальность такова, что мы пока стоим на самом раннем этапе создания искусственных интеллектуальных систем.
Но если четко сформулировать его (ИЭ) задачи на перспективу, то перспектива эта действительно может быть захватывающая.
Мне, как бывшему математику, наиболее близка позиция по данному вопросу академика Журавлева
Я хоть и не являюсь его учеником, правда как то сдавал ему экзамены, но с работами его знаком, и смысл их понимаю, во всяком случае.
Почитайте его популярные статьи и интервью, много интересного на эту тему узнаете.
Добавим: "И работает она сегодня лучше чем человеческий интеллект, занимающийся то же задачей."
Распознавание лиц, это только часть системы распознавания образов. Это развитие технологий которые были известны уже в 70-х годах прошлого века.
Есть еще более сложная задача - это систематизация образов.
И совсем сложная задача - это принятие решений.
Как минимум три эти задачи входят в алгоритмы "Искусственного интеллекта"
Но если коротко то ИЭ это математический раздел занимающийся исследованиями формальных операций над неформализованными объектами.
Это то, чем в человеческом обществе занимается исследователь превращаю описательную концепцию в формальную теорию.
Так и есть, но первые три проблемы ИЭ решает.
- распознает.
- систематизирует
- дает варианты решения.
Но не решает и это правильно.
Нет, систему можно легко обмануть. А вот опытный пограничник или таможенник сразу почуствует напряжение, нервозность и другие изменения, практически не заметные глазу...
Не замена человека, а инструмент для облегчения работы
И работает она сегодня лучше чем человеческий интеллект,
не надо сравнивать интеллект и инструмент. Сегодняшние нейронные сети - это как молоток. Да, есть задачи, которым оно подходит (шуруп, забитый молотком держит лучше, чем гвоздь, закрученный отвёрткой). Но какое отношение это имеет к интеллекту? Интеллект опирается на философские категории, в отличие от того же молотка.
Та им и надо.