Пентагон США уведомил руководство подразделений вооруженных сил о необходимости удалить продукты искусственного интеллекта компании Anthropic из своих систем в течение полугода. Как выяснил CBC News, распоряжение было отдано 6 марта, на следующий день после того, как Anthropic была признана «угрозой для цепочки поставок».
В уведомлении предписывается удалить программы Anthropic из ключевых систем национальной безопасности, включая системы ядерного оружия, противоракетной обороны и кибервойны. В нем также содержится требование, чтобы любая другая компания-подрядчик Пентагона прекратила использование всей продукции Anthropic в контрактах для Минобороны в течение 180 дней.
В качестве объяснения уточняется, что использование разработок Anthropic представляет «потенциально катастрофические риски для военнослужащих». Исключение будет рассматриваться лишь для критически важных операций по обеспечению национальной безопасности, «где нет жизнеспособной альтернативы» и представлен «всеобъемлющий план снижения рисков».
10 марта Anthropic подала в суд иск против Пентагона, его главы Пита Хегсета, нескольких федеральных ведомств и чиновников администрации Дональда Трампа. Разработчик модели искусственного интеллекта Claude обвинил власти в попытке разрушить его бизнес из-за отказа подчиняться требованиям Пентагона. Конфликт между Anthropic и Пентагоном начался из-за разногласий по поводу этического использования Claude. Anthropic потребовала, чтобы ее ИИ не использовался для управления автономным оружием или для массовой слежки за американцами. В свою очередь, администрация Трампа заявила, что компания представляет угрозу безопасности, так как пытается ограничивать возможности Пентагона.
Комментарии
Эти альтернативно одаренные запихали текстовый компилятор в системы ядерного оружия?!
Ну так-то ИИ это совсем не только лишь языковые модели.
Но да, ситуация неоднозначная, ИИ требуется обучение, а как обучать без реальных действий
ИИ от Антропик, обсуждаемый в статье - LLM.
не только.
это самые продвинутые агенты. ваш запрос с помощью LLM и накопленых (обычно в виде текстовых файлов) знаний и инструкций превращается в план действий, который исполняется автоматически (или с контролем пользвателем каждого шага, но это быстро задолбывает), причем шаги могут быть не только "сделай из вот этого вот это с помощью вот этого промпта", но и "запусти вот такой-то скрипт с такими-то параметрами. результаты положи сюда-то", "дерни вот эту api с такими параметрами, результаты положи туда-то", и даже "уточни у пользователя вот это". Если в процессе всплывают ошибки, агент пытается автоматически диагностировать, подобрать и исполнить исправление (это "вшитый" навык). Это все встроено и в чат Claude, в их основной продукт Claude Code.
Ценность же LLM (в узком смысле) от Anthropic - в умении анализировать знания и инструкции и планировать. Т.е. к "обычному" компилятору текстов добавили еще и компилятор планирования. Но это только часть их решения.
А вы что думали? Что ядерным оружием управляет человек?
Это очень давно совсем не так. Изначально ядерным орудием управляли алгоритмы, ИИ позволяет строить более гибкие и эффективные стратегии ядерной войны.
Claude показывает лучше результаты в игре "ядерная война". Сильно лучше чем все остальные ИИ. И данная игра прекрасно демонстрирует что альтернативе ИИ в управлении ядерным оружием просто не существует. Естественно управлять ядерной войной будет ИИ. Это давно известно и действительно так.
Так что умиляют дураки которые предлагаю "жахнуть и взять на понт" или прочие глупости древней стратегии "ядерного блефа". Нет, ИИ напугать не получится, а именно ИИ дает рекомендации на применение, порядок применения и рассчитывает наряд сил и средств в случае ядерной войны. В конечном итоге именно от ИИ зависит начало и ведение ядерной войны, и естественно в таком случае вариант "сдаться" не предусматривается не для одной из сторон. Не в человеческих силах остановить ИИ в случае начала ядерной войны.
Давайте, расскажите нам как это происходит "на самом деле"!
А вы посмотрите документальные фильмы про СЯС. Фактически логика одинаковая и у нас и у них. Человек только принимает единственное решение "дать коды". Все остальное делают компьютеры. В случае "Периметра" это делает не человек а буквально алгоритм. Сейчас в США систему дорабатывают используя технологию ИИ. Цель доработки банальная и простая - наступательная термоядерная война. Если ИИ увидит возможность победить в ядерной войне, он ее начинает "уведомив" командование. ИИ будет в непрерывном режиме строить планы победы в ядерной войне и в реальном времени. Сейчас тот же самый процесс без интегрального использования ИИ занимает часы, а теперь будет минуты и секунды после интеграции ИИ. Но суть не меняется. Как только коды получены, человек просто не участвует в процессе ядерной войны. Персонал только проверяет коды и принимает решение об отмене, все полностью делают компьютеры.
И не забывайте, люди которым действительно поручено вести ядерную войну все находятся в защищенных бункерах, они понятия не имею что в действительности происходит. Они вынуждены полагаться только на цифры и свою человеческую интуицию. Принцип "мертвая рука" реализован во всех СЯС.
Определите "победу в термоядерной войне", какие критерии?
Личный бункер Трампа не пострадал?
------------------
А учитывая, что ИИ обладает способностью к диким галлюцинациям - не удивлюсь, если в реальной обстановке он начнёт шарашить куда попало. В том числе - по своим.
Или по пустому месту.
Или по бессмысленной цели.
Например, тот удар по школе для девочек в Иране - очень похож на такой "глюк".
Одной ракетой добились того, что Иран теперь не сдастся никогда.
Т.е. им объяснили популярно, что пощады им не будет вообще, и даже детей, и даже девочек - в живых не оставят.
Вряд ли это было целью, которую реально хотели достичь.
Ну это уже вопрос постановки задачи.
Это тоже вопрос постановки задачи. ИИ просто безупречно реализует поставленную задачу.
Спрашиваете у Пита Хегсета что он считает "победой в войне".
Его политические взгляды известны. Как и Питера Тиля тоже известны. Несложно догадаться какие критерии "победить в войне".
Помнится тут недавно была статья про жалобы американских военных на религиозную пропаганду. 
Так что не нужно обвинять "зеркало ИИ", он просто с нечеловеческим изяществом реализует то что его попросили сделать. И это не ошибки, а вполне конкретный план и стратегия.
Вот здесь реально было смешно!!!
Вы не видите здесь противоречия?
Нисколько. Вы просто не поняли. Так что еще раз, человек будет принимать решение на основе анализа ИИ. Решение человека дать или не дать коды на запуск.
Дальше думайте сами.
Слив защитан.
Похоже, это из-за разборок причин удара по иранской школе девочек. Были сообщения что цель определял и наводил ИИ. Возможно что разработчик от греха подальше и начал выдвигать подобные требования опасаясь что его сдадут и спустят на него всех собак, тогда его репутация была бы уничтожена в 0.
Верно, просто хайп, а по факту ритуал имени Эпштейна отыгрывают.
Нужно везде и всюду спрашивать американцев и евреев.
Зачем они убивали девочек двум ракетами в цель?
Жертвоприношения в честь иудейского праздника Пурим пока самое разумное объяснение.
Как у ИИ спросили решить задачу "выиграть войну с Ираном", так он и предложил стратегию. И происходящее очень похоже на Claude от Anthropic. Исключительно точно, логично и рационально, но совершенно неразумно. Тактически безупречно, но стратегически - галюционация.
Пит Хегсет просто дурак не понимающий с чем имеет дело. Но у него все возможности ИИ Palantir. Anthropic пытались ему объяснить почему так нельзя. Но это слишком сложно для Пита Хегсета.
Как так, выходит в Сша есть цензура, ИИ забанили. По факту, америкосские военные постят свои файлики в ии, а на другом конце мира, китайцы их читают. Вот основная причина.
На днях поглядел в Гугле - глаза чуть не выпадали, что он там пишет про американские системы и удаленный доступ (с Израиля).
А убивали они со времен индейцев, одеяла с оспой не ии подкладывал и племена ссорил.
Поздняк метаццо - ящик пандоры вскрыли,теперь огребём.И "не только лишь все!"
А так-то он лучший.
Один удалить, другой установить, потом другой удалить, третий установить... И так до полного изнеможения...
Перспективный чат детектед! Сим повелеваю - внести запись в реестр самых обсуждаемых за последние 4 часа.
Тоже начали втихаря майнить!? :))