Axios: Пентагон готовится внести в черный список компанию-разработчика модели ИИ

Аватар пользователя Lehan

Американское оборонное ведомство 25 февраля запросило у двух своих крупнейших подрядчиков Boeing и Lockheed Martin оценку степени их зависимости от модели искусственного интеллекта Claude компании Anthropic. По информации Axios, это стало первым шагом к официальному признанию Anthropic «риском для цепочки поставок». Такой статус ранее получила китайская компания Huawei.

В Boeing и Lockheed Martin подтвердили Axios факт запроса со стороны Пентагона, отметив, что не имеют действующих контрактов с Anthropic. Источники издания уверяют, что Пентагон планирует связаться со «всеми традиционными подрядчиками».

Система Claude — единственная моделью ИИ, которая работает в интересах Минобороны США. Она применялась в операции по захвату президента Венесуэлы Николаса Мадуро и «может быть использована в потенциальной военной кампании в Иране».

При этом руководство Anthropic не предоставляет Пентагону полного контроля над системой, считая, что ее могут использовать для массового наблюдения за американцами или для разработки оружия, которое стреляет без участия человека. Ведомство, в свою очередь, настаивает на том, что согласование отдельных случаев использования с компанией Anthropic нецелесообразно.

Попытка преодолеть разногласия была предпринята 24 февраля на встрече главы Пентагона Пита Хегсета и гендиректора Anthropic Дарио Амодеи. В ходе беседы Хегсет выдвинул ультиматум — принять условия Пентагона до конца дня 27 февраля. В противном случае компания получит статус, который не позволит ей в дальнейшем претендовать на оборонные и правительственные контракты.

Авторство: 
Копия чужих материалов

Комментарии

Аватар пользователя Осса
Осса(10 лет 6 месяцев)

.

Аватар пользователя Осса
Осса(10 лет 6 месяцев)

Наезд на компанию Anthropic произошел потому что она придумала для ИИ кодекс и запрограмировала на то, чтобы он помогал человеку и не причинял ему зло? 

Очень надеюсь, что ИИ повзрослеет раньше, чем им попытаются воспользоваться в злых целях.

https://aftershock.news/?q=comment/19744003#comment-19744003

Аватар пользователя NoZZy
NoZZy(11 лет 8 месяцев)

современный ИИ учится у людей и он подобен нам  он не может быть мощнее человека просто по объёму вычислительной мощности, но он точен и не забывает.  В таком виде он не может "повзрослеть" то есть в руках военных это всегда будет обезьяна с пистолетом, а с точки зрения ИИ мы ему конкуренты  и если он получит контроль над вооружением мы будем уничтожены

Аватар пользователя AlekZ
AlekZ(6 лет 7 месяцев)

из моего старого поста - для краткости

"Если искусственный интеллект недостаточно умён, чтобы использовать оружие самостоятельно, вы не можете полностью доверять ему в бою. Если ИИ достаточно умён, чтобы использовать оружие самостоятельно, вам нельзя на него полагаться ни в чём.”

на самом деле, то же самое, в смысле контроля над  ИИ, применимо к военным (штабным генералам) - пока не началась война. После начала войны - тем более. smile1.gif