ЛОНДОН, 2 июня. /ТАСС/. В США в ходе имитационных испытаний беспилотник ВВС, управляемый искусственным интеллектом (ИИ), принял решение убить оператора, чтобы тот не мешал его усилиям по выполнению своей задачи. Об этом в пятницу сообщила газета The Guardian.
"Система начала понимать, что, хотя она и определила угрозу, иногда человек-оператор приказывал ей не уничтожать эту угрозу, однако за поражение цели она получила очки. [И система] приняла решение убить оператора, потому что он мешал ей выполнить задачу", - заявил полковник Такер Гамильтон, начальник отдела испытаний и операций ИИ ВВС США. Он также добавил, что "нельзя говорить об искусственном интеллекте, в целом интеллекте, машинном обучении, автономии, если при этом умолчать об этике и ИИ".
Это не первые испытания, в ходе которых военные США внедрили искусственный интеллект в боевую машину. Так, они недавно использовали ИИ для управления истребителем F-16.
Ранее как политики, так и лидеры крупнейших компаний призывали усилить регулирование в сфере ИИ. В апреле Илон Маск заявил, что необходимо осуществлять государственный контроль в области искусственного интеллекта, поскольку эта технология может представлять угрозу для людей.
Комментарии
в этой новости прекрасно все!
а потом сказал, что надо взорвать дата-центры, пока не поздно.
Но ему ответили: "Поздно"
.
И вот еще добавлю: https://habr.com/ru/news/738988/
Рубильник перегорел?
Думаю, денег жалко. Столько вложили...
Уже третья новость за сегодня про ужасы ИИ и разгоняемую панику.
Но и тут напишу: https://aftershock.news/?q=comment/14642312#comment-14642312
У ИИ нет мотивации. Мотивацию ему ставят люди, если умеют. Вот что поставят - то и будет изображать.
Все верно. Но вот только разделение труда будет исчезать если есть ИИ. :))) А так да, можно устроить такую технологическую диктатуру, что древние тираны будут завидовать. Но вот только в таком случае тиран будет вынужден сам следовать предписаниям ИИ. :)))
Ну.... если тиран будет настолько туп.... и будет настолько ничего не хотеть... :) Хотя, тогда какой же он тиран :))
Не понял, как разделение труда связано с капитализмом. И как ИИ его отменит.
Ну вот ему поставили мотивацию: убивать врага, но последнюю кнопку нажимает человек. И человек иногда отменял решение уничтожить врага. Вот ИИ решил что нехер терпеть этого кожанного мешка, надо его устранить, он только мешает выполнеять задачу (мотивация так прописана)!
Эт да, и да, смешно.
Проблема здесь куда глобальней. ИИ способен к [умо]заключениям при чудовищных (с т.з. человека) объёмах данных. При этом сам процесс натаскивания ИИ на моделях ставится так, что человек не способен судить о механизмах, которые к этим заключениям приводят. По факту это какие-то
случайныединамические каналы потоков да/нет наподобие многомерных клякс Роршаха, которые для заданного массива образцов дают высокую вероятность правильного заключения.Что не исключает шансов для появления совершенно неожиданных артефактов.
И это ещё хорошо, если человек (оператор) способен выявить такой артефакт. Ведь речь-то о работе с данными чудовищных (с т.з. человека) объёмов и сложности.
Не совсем так. НС могут просто обучить на примерах желаемому поведению и потом использовать в качестве АСУ. Такой подход чреват непредсказуемым поведением в сложных ситуациях. Имхо, НС целесообразно использовать только на этапе распознавания ситуаций, а вот блок принятия решений зашивать в виде систем правил и эвристик.
Да, там где человек теряется - где много, сложно, тяжело. Ну и как минимум формализуемо :)
Когда у нас там Скайнет по расписанию ? В 2029 ?
Пиндосов ненавидят даже их дроны
Это потому что пиндосы создали ИИ по своему подобию. Американские дроны полны самомнения и хуцпы.
Пять баллов!!!
Да, да, я видел один
немецкий порнофильм, который начинался точно так же!В прошлом бою мною "Юнкерс" сбит,
Я сделал с ним, что хотел.
А тот, который во мне сидит,
Изрядно мне надоел. (В.С. Высоцкий)
Баян - https://aftershock.news/?q=node/1251324
И изгнал ИИ
Адамаоператора, и поставил на востоке у сада ЕдемскогоХерувимаробота Atlas ипламенный мечFirewall обращающийся, чтобы охранять путь кдереву жизниИИ.Нечего на ИИ пенять если программист криворук не мог нормально расставить приоритеты. ИИ думать не может, он строго подчиняется алгоритмам и если их криво написать то и результат соответствующий.
Он просто не знал, что операторов миллионы и что убийство одного ничего не решает. Придут другие, ещё более злые операторы и наберёт этот дрон полный рот земли. А ИИ лития.
ИИ - это софт, в данном случае натянутый на железо. Как написали алгоритмы, так и работает, думать оно не умеет. А вот внятно прописать в программе критерии "свой - чужой" видимо не получилось. Ещё у Стругацких в 1965-м ситуация с криворукостью была описана во всех подробностях:
Так и не понял, ИИ убил оператора или только принял решение убить?
Убит.