Искусственный интеллект на испытаниях в армии США решил убить оператора

Аватар пользователя ТАСС

ЛОНДОН, 2 июня. /ТАСС/. В США в ходе имитационных испытаний беспилотник ВВС, управляемый искусственным интеллектом (ИИ), принял решение убить оператора, чтобы тот не мешал его усилиям по выполнению своей задачи. Об этом в пятницу сообщила газета The Guardian.

"Система начала понимать, что, хотя она и определила угрозу, иногда человек-оператор приказывал ей не уничтожать эту угрозу, однако за поражение цели она получила очки. [И система] приняла решение убить оператора, потому что он мешал ей выполнить задачу", - заявил полковник Такер Гамильтон, начальник отдела испытаний и операций ИИ ВВС США. Он также добавил, что "нельзя говорить об искусственном интеллекте, в целом интеллекте, машинном обучении, автономии, если при этом умолчать об этике и ИИ".

Это не первые испытания, в ходе которых военные США внедрили искусственный интеллект в боевую машину. Так, они недавно использовали ИИ для управления истребителем F-16.

Ранее как политики, так и лидеры крупнейших компаний призывали усилить регулирование в сфере ИИ. В апреле Илон Маск заявил, что необходимо осуществлять государственный контроль в области искусственного интеллекта, поскольку эта технология может представлять угрозу для людей. 

Авторство: 
Авторская работа / переводика

Комментарии

Аватар пользователя Будка
Будка(4 года 2 месяца)

Комментарий администрации:  
*** отключен (провокатор, розжиг) ***
Аватар пользователя Georg
Georg(6 лет 9 месяцев)

в этой новости прекрасно все!

Аватар пользователя Stan Miller
Stan Miller(5 лет 3 месяца)

smile19.gif

Аватар пользователя Zdrasti
Zdrasti(9 лет 1 месяц)

В апреле Илон Маск заявил, что необходимо осуществлять государственный контроль в области искусственного интеллекта, поскольку эта технология может представлять угрозу для людей. 

а потом сказал, что надо взорвать дата-центры, пока не поздно.

Но ему ответили: "Поздно"smile2.gif

Аватар пользователя Корректор
Корректор(8 лет 9 месяцев)

И вот еще добавлю: https://habr.com/ru/news/738988/

Аватар пользователя Непонял
Непонял(10 лет 2 месяца)

Но ему ответили: "Поздно"
 

Рубильник перегорел?

Аватар пользователя Zdrasti
Zdrasti(9 лет 1 месяц)

Думаю, денег жалко. Столько вложили...

Аватар пользователя Корректор
Корректор(8 лет 9 месяцев)

Уже третья новость за сегодня про ужасы ИИ и разгоняемую панику.

Но и тут напишу: https://aftershock.news/?q=comment/14642312#comment-14642312

Аватар пользователя a.pythe
a.pythe(3 года 10 месяцев)

мире в котором есть ИИ, просто не может быть капитализма. Вот не может и все.

У ИИ нет мотивации. Мотивацию ему ставят люди, если умеют. Вот что поставят - то и будет изображать.

Аватар пользователя Корректор
Корректор(8 лет 9 месяцев)

Все верно. Но вот только разделение труда будет исчезать если есть ИИ. :))) А так да, можно устроить такую технологическую диктатуру, что древние тираны будут завидовать. Но вот только в таком случае тиран будет вынужден сам следовать предписаниям ИИ. :)))

Аватар пользователя a.pythe
a.pythe(3 года 10 месяцев)

Ну.... если тиран будет настолько туп.... и будет настолько ничего не хотеть... :) Хотя, тогда какой же он тиран :))

Не понял, как разделение труда связано с капитализмом. И как ИИ его отменит.

Аватар пользователя alex_midway
alex_midway(13 лет 11 месяцев)

Ну вот ему поставили мотивацию: убивать врага, но последнюю кнопку нажимает человек. И человек иногда отменял решение уничтожить врага. Вот ИИ решил что нехер терпеть этого кожанного мешка, надо его устранить, он только мешает выполнеять задачу (мотивация так прописана)!

Аватар пользователя a.pythe
a.pythe(3 года 10 месяцев)

Эт да, и да, смешно.

Проблема здесь куда глобальней. ИИ способен к [умо]заключениям при чудовищных (с т.з. человека) объёмах данных. При этом сам процесс натаскивания ИИ на моделях ставится так, что человек не способен судить о механизмах, которые к этим заключениям приводят. По факту это какие-то случайные динамические каналы потоков да/нет наподобие многомерных клякс Роршаха, которые для заданного массива образцов дают высокую вероятность правильного заключения.

Что не исключает шансов для появления совершенно неожиданных артефактов.

И это ещё хорошо, если человек (оператор) способен выявить такой артефакт. Ведь речь-то о работе с данными чудовищных (с т.з. человека) объёмов и сложности.

Аватар пользователя CatOwner
CatOwner(8 лет 4 месяца)

Не совсем так. НС могут просто обучить на примерах желаемому поведению и потом использовать в качестве АСУ. Такой подход чреват непредсказуемым поведением в сложных ситуациях. Имхо, НС целесообразно использовать только на этапе распознавания ситуаций, а вот блок принятия решений зашивать в виде систем правил и эвристик.

Аватар пользователя a.pythe
a.pythe(3 года 10 месяцев)

Да, там где человек теряется - где много, сложно, тяжело. Ну и как минимум формализуемо :)

Аватар пользователя Малый Евген
Малый Евген(12 лет 1 месяц)

Когда у нас там Скайнет по расписанию ? В 2029 ?

Аватар пользователя Кылдысин
Кылдысин(3 года 3 месяца)

Пиндосов ненавидят даже их дроны smile171.gif

Комментарий администрации:  
*** отключен (подонок - https://aftershock.news/?q=comment/15357744#comment-15357744) ***
Аватар пользователя Zdrasti
Zdrasti(9 лет 1 месяц)

Это потому что пиндосы создали ИИ по своему подобию. Американские дроны полны самомнения и хуцпы.

Аватар пользователя NOT
NOT(14 лет 1 месяц)

Пять баллов!!!

Аватар пользователя evs
evs(8 лет 1 месяц)

Да, да, я видел один немецкий порнофильм, который начинался точно так же!smile13.gif

Аватар пользователя Mepk
Mepk(5 лет 1 месяц)

 В прошлом бою мною "Юнкерс" сбит,

Я сделал с ним, что хотел.

А тот, который во мне сидит,

Изрядно мне надоел. (В.С. Высоцкий)

Аватар пользователя alexsword
alexsword(14 лет 3 месяца)
Аватар пользователя calvados1967
calvados1967(11 лет 2 месяца)

И изгнал ИИ Адама оператора, и поставил на востоке у сада Едемского Херувима робота Atlas и пламенный меч Firewall обращающийся, чтобы охранять путь к дереву жизни ИИ.

Аватар пользователя Тигр Шрёдингера
Тигр Шрёдингера(2 года 11 месяцев)

Нечего на ИИ пенять если программист криворук не мог нормально расставить приоритеты. ИИ думать не может, он строго подчиняется алгоритмам и если их криво написать то и результат соответствующий.

Аватар пользователя Дохлик
Дохлик(11 лет 6 месяцев)

принял решение убить оператора, чтобы тот не мешал его усилиям по выполнению своей задачи

Он просто не знал, что операторов миллионы и что убийство одного ничего не решает. Придут другие, ещё более злые операторы и наберёт этот дрон полный рот земли. А ИИ лития.

Аватар пользователя Juseppe
Juseppe(9 лет 2 месяца)

принял решение убить оператора, чтобы тот не мешал его усилиям по выполнению своей задачи

ИИ - это софт, в данном случае натянутый на железо. Как написали алгоритмы, так и работает, думать оно не умеет. А вот внятно прописать в программе критерии "свой - чужой" видимо не получилось. Ещё у Стругацких в 1965-м ситуация с криворукостью была описана во всех подробностях:

Вдруг по улице с криком побежал человек. За ним гнался паукообразный механизм. Судя по крикам преследуемого, это был "самопрограммирующийся кибернетический робот на тригенных куаторах с обратной связью, которые разладились и… Ой-ой, он меня сейчас расчленит!.." Странно, никто даже бровью не повел. Видимо, никто не верил в бунт машин.

smile1.gif 

Аватар пользователя Думник
Думник(3 года 10 месяцев)

Так и не понял, ИИ убил оператора или только принял решение убить?

Аватар пользователя Хара-Хото
Хара-Хото(4 года 7 месяцев)