О правовом регулировании применения искусственного интеллекта в военной сфере

Аватар пользователя bom100

Применение средств вооруженной борьбы с использованием искусственного интеллекта (ИИ) по масштабам и эффективности можно смело сравнить с революцией в военном деле, которая произошла с появлением ракетно-ядерного оружия. На вооружение ряда стран уже приняты системы с элементами ИИ, начиная с беспилотных летательных аппаратов, роботов-часовых и заканчивая системами обработки сложной информации.

Так, например, в июле 2016 года стало известно о компьютерной программе ВВС США под названием ALPHA. Она позволяет не только управлять полетом истребителя, но и побеждать в воздушном поединке опытного военного летчика в виртуальном бою. В ходе других испытаний нейросетевые алгоритмы успешно провели не только ближний маневренный воздушный бой, но и выявляли противника с помощью радаров, а потом поражали его ракетами1.

В сухопутных войсках также активно внедряются технологии искусственного интеллекта. Например, в начале 2019 года командование армии США инициировало программу разработки виртуального помощника для экипажей танков и боевых машин, которые призваны повысить эффективность применения техники и вооружения в условиях современного боя.

Виртуальный помощник ATLAS будет обнаруживать цели, которые люди не сразу заметили, оценивать их опасность, а также наводить на цель орудие. При этом система ATLAS будет не только обрабатывать данные с собственных датчиков и устройств боевой машины, но и получать данные извне, что увеличит вероятность обнаружения целей. Как заявлено в технической документации системы, она позволит обнаруживать, идентифицировать и поражать цели как минимум в 3 раза быстрее, чем сейчас делает человек»2 .

В военно-морских силах США используют боевую информационно-управляющую систему Aegis, позволяющую принимать и обрабатывать информацию с датчиков кораблей и летательных аппаратов и выдавать целеуказание на ракетные пусковые установки3 . Решение на поражение противника принимает человек (оператор), но можно настроить систему таким образом, чтобы цели поражались в автоматическом режиме без участия человека.

Более того, согласно предполагаемой американской стратегии, летальное боевое оружие устанавливается на вспомогательные корабли ВМФ, а  решение на их применение принимается дистанционно. Другими словами, на самих кораблях, где установлены боевые ракеты, отсутствует команда, призванная обслуживать и осуществлять пуск ракет4 . Министерство обороны США осуществляет около 600 проектов с  применением искусственного интеллекта, а инвестиции в них выросли с 600 млн долл. в 2016 году до 2,5  млрд долл. в 2021 финансовом году5 . По взглядам высшего военного руководства США, одной из ключевых задач на современном этапе военного строительства является интеграция технологий искусственного интеллекта в существующие и новые образцы военной техники6 .

Председатель компартии Китая также неоднократно отмечал важность внедрения ИИ во все сферы жизнедеятельности государства, в том числе и в оборонную отрасль7 . НОАК ежегодно тратит более 1,6 млрд долл. на системы с поддержкой ИИ, не считая засекреченных разработок — говорится в исследовании американских ученых8 . Таким образом, в настоящее время наблюдается очередной виток гонки вооружений, но теперь уже в информационно-технологической сфере. Более 40 стран, в том числе США, Россия, Великобритания, Франция, Китай, Израиль, Южная Корея, разрабатывают роботов, способных воевать без человеческого участия9 . Планируется, что к 2030 году доля боевых технических средств с ИИ составит 52 % от количества экипажных боевых машин и 30 % — от общего состава боевых машин.

При этом, по оценкам американских военных специалистов, боевые возможности подразделений нового типа возрастут в 2—2,5 раза10. В России также ведутся разработки по оснащению электронными системами управления современного вооружения и техники. Некоторые образцы «умных машин» уже поступили в российскую армию. Например, в 2021 году в ходе учений успешно поражали цели такие российские наземные «беспилотники», как «Уран-9», оснащенный пушкой, пулеметом, противотанковыми ракетами и огнеметом, а также система «Нерехта».

Управление такими машинами осуществлялось в режиме реального времени операторами, находившимися на удалении 1,5  км. В 2022 году планируется проведение опытного учения с использованием боевой робототехники, по результатам которого будет принято решение об оптимальном количестве поставки такой боевой техники в войска11.

На актуальность внедрения в новые образцы вооружения технологии ИИ обращал внимание Президент Российской Федерации В.В.  Путин: «…технологии искусственного интеллекта должны обеспечить качественный прорыв в повышении боевых характеристик оружия, должны активнее применяться в системах управления, средствах связи и передачи данных, а также высокоточных ракетных комплексах. Не менее важно внедрение технологий искусственного интеллекта при создании перспективной робототехники с повышенной степенью автономности, в обеспечении управления беспилотниками, а также глубоководными аппаратами.

Все эти приоритеты и задачи должны быть в полной мере отражены в государственной программе вооружения до 2033 года»12. Выступая на коллегии Минобороны России за 2020 год, Президент России рекомендовал «в ходе боевой учебы более активно осваивать, «обкатывать» вооружения и технику с элементами искусственного интеллекта, в том числе — роботизированные комплексы, автоматизированные системы управления.

Такое оружие в разы повышает потенциал частей и соединений и в ближайшем будущем станет во многом определять исход боя»13. Не случайно, что на развитие ИИ в России до 2024 года планируется выделить 244 млрд руб.14 В 2020 году Минобороны России уже заказало разработку системы искусственного интеллекта для использования в военных целях. Стоимость контракта, который должен быть исполнен до 10  ноября 2022 года, составила 387,8 млн руб. При этом в 2020 году на эти исследования планировалось выделить более 115 млн руб., в 2021 году — свыше 152 млн руб., а в 2022-м — 120 млн руб.15

Поэтому вполне естественным фактом было появление в структуре Минобороны России нового органа — Главного управления инновационного развития, одной из основных функций которого является внедрение высокотехнологичной продукции военного и специального назначения в интересах обороны16. Центральные СМИ сообщают, что не позднее 2035 года в Российской армии произойдет переход к созданию полностью автономных беспилотников и групп военной техники.

Внедрение систем автоматического распознавания целей нового поколения не только повысит эффективность разведывательных летательных аппаратов, но и резко снизит их потенциальные боевые потери17.

Все вышеизложенные примеры свидетельствуют об актуальности и неотложности более пристального научного рассмотрения вопросов разработки и внедрения новых систем вооружения и техники, где применяются технологии ИИ. Тем более правовая регламентация данного процесса, как обычно, отстает от фактических достижений. Да, законодательство РФ более-менее регламентирует гражданские отношения, связанные с производством и продажей вооружения и военной техники.

Еще детальнее государство описывает порядок применения ручного огнестрельного оружия. Но вот применение умных машин, использование ИИ в военных целях регламентировано крайне слабо, тем более  — открытыми (несекретными), доступными для всеобщего ознакомления нормативными правовыми актами. В настоящее время в Российской Федерации отсутствует специальное законодательное регулирование, учитывающее специфику применения технологий искусственного интеллекта и робототехники18.

Между тем указанная правовая проблема в такой опасной, но важной для обороны и целостности государства в сфере обороны вряд ли оправдана и может привести к критическим последствиям. Можно уверенно утверждать, что технический прогресс в очередной раз обогнал правовое регулирование общественных отношений в области создания технических новинок. Кстати, подобная правовая неопределенность существует и в отношении допуска на дороги общего пользования беспилотных транспортных средств.

В обоих случаях речь идет не просто о применении нового прибора или машины, а об эксплуатации устройств, способных самостоятельно, т.  е. без участия человека получать информацию, анализировать ее, принимать решения и реализовывать их. Таким образом, самостоятельные действия подобного рода устройств (как под контролем оператора, так и без его контроля) будут порождать правовые последствия для отдельных лиц. Хочется обратить особое внимание на весьма важный момент в сфере рассматриваемых отношений.

Системы с использованием ИИ нельзя отождествлять просто с роботами или автоматизированными системами управления, которые дейсстрого по заданной программе. На опасность подмены понятий указывает, в частности, профессор В.М. Буренок, говоря, что искусственный интеллект  — это компьютерный феномен, хотя и не обладающий интеллектуальными способностями человека, но уже и не ограниченный в своих решениях неким жестким алгоритмом и способный выйти в своих действиях за рамки этого алгоритма. Автоматизация процессов управления с помощью компьютеров не является тождественной работе системы ИИ.

В первом случае речь идет о  вычислительных машинах, оснащенных совокупностью алгоритмов обработки информации, которая затем используется как система исходных данных для решения задач с помощью формализованных методов. Основные отличия интеллектуализации по отношению к автоматизации  — это реализация способности компьютера принимать решения в условиях значительной неопределенности, на основе разнородной и неполной информации, часто меняющихся ситуаций, в том числе за пределами заложенных алгоритмов программы.

Можно сказать, что ИИ  — это способность компьютера принимать решения в разнообразных и быстро меняющихся ситуациях аналогично человеку19. Ключевой момент здесь — самостоятельность действий технического устройства, выраженная в возможности анализировать, принимать решения и реализовывать их, не согласуясь с человеком, будь то оператор, владелец или программист. Устройство, наделенное ИИ, гораздо более самостоятельное, нежели просто технический прибор, пусть даже работающий по сложной программе.

А самое важное в данном аспекте — это самостоятельность такой компьютерной системы, ее способность делать выводы и принимать решения в зависимости от результатов анализа данных и даже обладание ею творческими функциями20. При применении военных роботов с ИИ оператор всего лишь задает конечную цель, а не конкретные шаги для ее достижения. Более того, ИИ обладает еще одним важным качеством — он способен к самообучению и адаптации к различным условиям, т. е. к изменению алгоритмов своих действий или даже структуры с целью достижения оптимального состояния при изменении внешних условий.

Такое техническое устройство под управлением искусственного интеллекта способно на основе предыдущего опыта и новой информации самостоятельно изменять и совершенствовать изначально заложенное в нее программное обеспечение, осуществлять самопрограммирование (изменять и дополнять заложенную в нее программу), а  значит, и решать задачи, которые не были предусмотрены при создании данного устройства изначально.

Поэтому так крайне важно исходя из указанных характеристик совершенствовать систему законодательства о применении систем с ИИ. В российском законодательстве понятийно-терминологический аппарат сферы регулирования искусственного интеллекта заложен Указом Президента Российской Федерации от 10 октября 2019 года №  490 «О развитии искусственного интеллекта в Российской Федерации», утвердившим «Национальную стратегию развития искусственного интеллекта на период до 2030 года»21.

В указанном документе дается следующее определение искусственного интеллекта — это комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые как минимум с результатами интеллектуальной деятельности человека.

Таким образом, на уровне нормативного правового акта РФ закреплено положение о самообучении и саморазвитии компьютерной программы. Следовательно, заложенная в техническое средство (например, в робота или в сервер) такого рода компьютерная программа через некоторое время изменится, будет отличаться от первоначальной программы; причем данное изменение будет происходить без участия сторонних лиц.

Вышеуказанная Стратегия предусматривает поэтапное создание нормативно-правовой базы, способной обеспечить формирование и функционирование комплексной системы регулирования общественных отношений, возникающих в связи с развитием и использованием технологий ИИ. К 2024 году должны быть созданы необходимые правовые условия для решения задач и реализации мер, предусмотренных Стратегией, а к 2030 году — гибкая система нормативно-правового регулирования в  области искусственного интеллекта, в том числе гарантирующая безопасность населения и направленная на стимулирование развития технологий ИИ.

Вместе с тем следует признать, что в упомянутой Стратегии речь идет о разработке системы законодательства прежде всего в сфере гражданского права. Другими словами, декларируется развитие законодательства относительно исключительных прав на продукцию с элементами ИИ, правил оборота такой продукции, ответственности за возможный вред в результате ее функционирования и субъектах, которые должны будут данный вред компенсировать. Учеными-юристами вполне серьезно обсуждается возможность наделения ИИ определенной правосубъектностью в будущем, заключения им сделок и возложения гражданско-правовой ответственности за его действия22.

Однако в отечественной юридической науке практически не разработаны сами правовые аспекты применения искусственным интеллектом военной силы (и использования искусственного интеллекта военными структурами); в законодательстве отсутствуют соответствующие нормы права, устанавливающие рамки для использования ИИ на военной службе. Тем более не определены критерии отнесения сотрудников военных организаций к субъектам уголовной ответственности при причинении вреда военными роботами.

Существуют лишь общие нормы о применении вооружения и военной техники, а также общие положения об ответственности за причинение вреда. Однако существующие нормы права не учитывают специфики наличия ИИ, не учитывают специфики воинских правоотношений. Кроме того, отсутствие норм права о порядке использования технических средств с  ИИ означает и то, что они не могут быть нарушены, а без нарушения норм права невозможно и само правонарушение, а также юридическая ответственность.

В Конституции Российской Федерации закреплен принцип, согласно которому никто не может нести ответственность за деяние, не признававшееся правонарушением в момент его совершения (ст. 54). Проблема видится в том, что до конца не ясны границы и сам предмет правового регулирования относительно применения военных систем искусственного интеллекта. Законодательные акты, регулирующие данные правоотношения, не созданы, крайне скупо представлено регулирование данного вопроса и в  военных ведомствах.

Указанная проблема констатируется в Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года23. При этом, как было указано выше, сами технические средства с элементами ИИ уже существуют. В зарубежной юридической литературе уже несколько десятков лет достаточно последовательно формируется так называемое «робоправо» или «право роботов» как самостоятельная предметная область исследования.

Рассматриваются прежде всего проблемы ответственности, правосубъектности, контролируемости систем ИИ, проблемы авторского и патентного права и многие другие24,25. Однако, во-первых, вышеуказанные исследования иностранных ученых нельзя применить к российской действительности по причине различия законодательства в разных странах, несовпадения уровней технического и экономического развития, менталитета населения и принципов государственной политики. Российской науке еще предстоит проработка данного вопроса.

Как указано в Программе фундаментальных научных исследований в России на долгосрочный период (2021—2030 годы)26, «в центре внимания будут оставаться вопросы… правового и информационного пространства. Необходимы междисциплинарные исследования в сфере правового регулирования вопросов развития робототехники, уточнения правового статуса ИИ». А во-вторых, законодательство в  военной сфере имеет существенную специфику. В отличие от, например, беспилотного автомобиля Tesla, функцией которого является перемещение людей и грузов с наименьшим причинением вреда27, роботизированные комплексы, применяемые в  интересах обороны страны, одной из главных функций имеют именно причинение вреда живой силе и технике противника, иной заданной цели.

Либо они опосредованно связаны с вышеуказанной функцией причинения вреда. Вред, причиняемый ими, возникает, как правило, не случайно, не в результате форс-мажора, а целенаправленно в результате их применения по назначению. В этих целях системы ИИ обладают возможностями применения оружия, разведывательной деятельности, анализом информации (в том числе персональных данных), разрушения объектов, причинения вреда жизни и здоровью людей и т. п.

Следовательно, в военной сфере системы, наделенные ИИ, потенциально гораздо более опасны. Международное гуманитарное право уже много лет разрабатывает нормативную базу, касающуюся запрета использования ряда средств и методов ведения войны. Согласно Конвенции о запрещении или ограничении применения конкретных видов обычного оружия, которые могут считаться наносящими чрезмерные повреждения или имеющими неизбирательное действие28, право воюющих сторон выбирать методы или средства ведения войны не является неограниченным.

Запрещается применение в вооруженных конфликтах оружия, снарядов и веществ и методов ведения войны, которые могут нанести чрезмерные повреждения или принести излишние страдания29. Так, под запрет попадают следующие средства войны:

•  взрывчатые и зажигательные пули; пули, легко разворачивающиеся или сплющивающиеся в человеческом теле; удушливые, ядовитые или другие подобные газы и бактериологические средства;

• бактериологическое (биологическое) и токсичное оружие, конкретные виды обычного оружия (необнаруживаемые осколки в человеческом теле, некоторые виды мин, зажиганотельное оружие и оружие массового уничтожения — в отношении гражданского населения), средства воздействия на природную среду, химическое оружие;

• ослепляющее лазерное оружие.

Как видим, в международных конвенциях прямо не предусмотрен запрет на применение систем с ИИ, да и сами указанные международные акты были приняты еще до внедрения в жизнь такого рода технических систем. Но здесь уместно сделать важную оговорку: не вся военная техника с элементами ИИ является собственно оружием. Многие виды военной техники, включая авто- и воздушные беспилотники, созданы не как оружие, а как вспомогательные и обслуживающие системы.

ИИ может существовать и в компьютерных сетях, выполняя интеллектуальную функцию, помогая принимать решения командованию либо участвуя в  кибервойне с противником. В этом случае не требуется ни шасси, ни огнестрельного оружия, ни иного технического устройства. В современных реалиях грань между оружием и иным техническим изделием военного назначения размывается.

Например, нанести вред противнику можно не только выстрелив в него из огнестрельного оружия, но и путем вывода из строя его систем управления, либо переключением управления на себя, поражения систем жизнеобеспечения посредством компьютерных вирусов, DDoS-атак, воздействуя звуком, светом, магнитным излучением, распространением дезинформации, отдачи ложных команд и т. п.

Например, голосовой искусственный интеллект может точно смоделировать голос любого человека. Представьте, что случится, когда в условиях войны или боя по радиосвязи или телефонной связи (в том числе ЗАС) вы получите команды, отдаваемые «голосом командира» (на самом деле — отдаваемых противником)? Их выполнение подчиненными приведет к дезорганизации управления и поражению в битве30? Ответ очевиден: противнику будет нанесен существенный вред, вполне возможно, погибнут люди, войска окажутся в невыгодном положении.

Ведение современных войн не предусматривает длительных и кровопролитных сражений, но вместе с тем продолжают совершенствоваться средства, в результате применения которых противнику будет нанесен невосполнимый вред именно в критическом для него месте. Это может быть финансовая или энергетическая сфера, деятельность органов управления и тому подобное. В то же время на вооружении многих армий стоят и военные роботы, имеющие в качестве составляющего элемента боевое оружие, которое предназначено поражать живую силу противника.

Да, любое оружие производится для того, чтобы предостерегать агрессора и при необходимости причинять ему вред. Поэтому свободное обращение оружия ограничено законодательством, а использование его по назначению должно осуществляться строго на основе закона по установленной процедуре. Системы ИИ могут и не быть оружием. Например, их применяют для навигации, связи, разведки, наблюдения и рекогносцировки, разминирования, логистики, обслуживания вооружения и техники, информационной войны, радиоэлектронной борьбы, обучения и контроля обучения, автоматического распознавания целей, подготовки управленческих решений, программного выведения из строя электрических и телекоммуникационных сетей противника.

Развитие систем вооружения и ускорения темпа боевых действий заставляет военное командование максимально автоматизировать управление войсками, ибо человеческий мозг уступает компьютеру в скорости обработки такого количества информации. Но и не будучи оружием (в обычном смысле данного слова), системы ИИ в армии все равно предназначены для повышения боеспособности своих войск и нанесения урона противнику. Так, беспилотные аппараты могут осуществлять таран и не имея огнестрельного оружия, т. е. все равно способны наносить вред, в том числе убивать человека. Ситуацию еще более осложняет тот факт, что вред они могут приносить без непосредственной команды человека. Следует отметить, что ни в международном праве, ни в российском законодательстве не закреплено требование обязательного участия человека при реализации роботом его смертоносного действия (т. е. «нажатия на курок» или одобрения решения). К настоящему времени сложились три разновидности военных роботов:

с заложенной изначально жесткой программой действий, управляемые человеком-оператором, с искусственным интеллектом.

В западной классификации это выглядит так:

•  «человек-в-системе-управления» (human-in-the-loop) — роботы способны самостоятельно обнаруживать цели и осуществлять их селекцию, однако решение об их уничтожении (или на иные действия) принимает только человек-оператор;

• «человек-над-системой-управления» (human-on-the-loop) — к этой категории относятся системы, способные самостоятельно обнаруживать и выбирать цели, а также принимать решения в отношении них, но человек-оператор, выполняющий роль наблюдателя, в любой момент может вмешаться и скорректировать или заблокировать данное решение;

•  «человек-вне-системы-управления» (human-out-of-the-loop) — к  этой категории отнесены роботы, способные обнаруживать, выбирать и уничтожать цели самостоятельно, без человеческого вмешательства31. Полностью автономная система способна принимать решения и совершать действия в условиях отсутствия контроля со стороны человека. Этот уровень автономии следует отличать от систем, которые либо «взаимодействуют» с человеком, либо зависят от некоторой формы контроля с его стороны32.

Таким образом, следует констатировать, что современные автономные системы вооружения могут действовать полностью самостоятельно, без вмешательства оператора: от поиска цели до принятия решения и лишения человека жизни, даже если он не в военной форме. И такие случаи уже зафиксированы. Так, в 2020 году турецкие дроны Kargu  2, используя «тактику роя», выследили и атаковали повстанцев в Ливии. Причем сделали они это самостоятельно, без участия человека33.

Другой случай — в ноябре 2020 года в Иране был убит ученый-ядерщик М.  Фахризаде, руководитель центра исследований при минобороны Ирана. Выстрелы были произведены из пулемета под управлением компьютерной системы, без участия человека34. В России летом 2021 года были внесены изменения в Федеральный закон «Об оружии». В частности, уточнялось, что оружие является источником повышенной опасности35.

И хотя под регулирование данного закона подпадает лишь небольшая часть оружия, используемого Вооруженными Силами РФ и иными военными ведомствами36, законодатель четко определил вектор правового регулирования в рассматриваемой сфере правоотношений. Ведь если к  источникам повышенной опасности законодатель отнес боевое ручное стрелковое и холодное оружие, то тем более таким источником являются гораздо более смертоносные танки, пушки, огнеметы, торпеды и т. д.

Как указывается в юридической литературе, источнику повышенной опасности военного назначения присущи определенные специфические признаки: повышенная вредоносность, масштабность причинения вреда. Такого рода военные объекты способны причинить вред, несмотря на самый полный контроль за ними со стороны человека37. По общему правилу, чем выше риск для нарушения прав человека либо причинения вреда, тем более строгим должно быть правовое регулирование в данной сфере отношений. Соответственно сферы, связанные с особенно высокими рисками, такие как оборона страны, правоохранительная деятельность, применение оружия либо источников повышенной опасности, должны быть урегулированы наиболее детально.

Однако в реальности все обстоит не так. Ученые признают казус отсутствия даже международных договоров об использовании новых технологий ведения военных действий, хотя их развитие и возможность применения в вооруженных конфликтах не должны происходить в правовом вакууме38. В этом плане хочется поддержать Илона Маска в его высказывании, что искусственный интеллект намного опаснее, чем ядерное оружие.

Искусственный интеллект — это тот редкий случай, когда нужно проявлять инициативу в регулировании, а не пытаться реагировать на его деятельность постфактум39. Конечно, разработка алгоритмов, реализуемых в составе программного обеспечения робототехнических систем, осуществляется по техническим заданиям и требованиям ГОСТ. Но все же нельзя подменять правовое регулирование, обязательное для всех субъектов и обеспечиваемое принуждением государства, регулированием техническим, определяющим лишь желательные параметры производимых объектов.

В рамках настоящей публикации, конечно же, невозможно дать качественную юридическую оценку всем аспектам применения систем ИИ в военной сфере. Следует уже сегодня начать вырабатывать концепцию применения систем ИИ в военной сфере, в частности, рассмотреть следующие проблемные вопросы: Определить те направления воинской деятельности, в которых допустимо применение систем с ИИ. В  частности, требует правовой регламентации вопрос: «Вправе ли системы ИИ добывать, обрабатывать и хранить информацию о персональных данных граждан40, иную охраняемую законом информацию, сведения, содержащие государственную тайну?».

Также уже сегодня необходимо нормативно задать перечень ситуаций, когда управление в части принятия значимых решений должен принять на себя человек. Определить те виды оружия и вооружения, которые не могут оснащаться системами ИИ, так как спусковой крючок такого смертоносного оружия может нажимать только человек. Регламентировать права, обязанности и ответственность воинских должностных лиц, которые применяют системы с ИИ с тем, чтобы предупредить совершение ими преступлений, запрещенных нормами международного гуманитарного права. Иначе есть вероятность, что такое смертоносное и умное оружие станет просто средством достижения преступных целей, средством причинения смерти на расстоянии.

Определить, когда ИИ вправе принимать решения самостоятельно, не дожидаясь одобрения оператора, например, в случаях необходимости защиты от нападения противника (решение об уничтожении ракеты или дрона, приближающегося к пункту управления). Требует уточнения и вопрос о принятии ИИ самостоятельных решений в наступательных операциях (т. е. применения оружия не для защиты), а также принятия решений, касающихся применения кибероружия. Уточнить баланс полномочий и ответственности между человеком и системой ИИ в случае, когда искусственный интеллект осуществляет подготовку решения для дальнейшего его одобрения человеком.

В условиях скоротечности современных военных действий и существенного опережения счетно-аналитических способностей компьютера по сравнению с человеком любое промедление в принятии решений может повлечь поражение. В то же время нельзя сводить роль человека к нажатию любой кнопки, которую рекомендует ИИ, т. е. к роли собаки Павлова, но только с оружием. Желательно определить те параметры, при наличии которых оператор вправе без наличия негативных юридических последствий для себя не согласиться с предложенным ИИ вариантом решения.

Требует правовой регламентации порядок осуществления контроля за деятельностью ИИ и предоставления объективной информации владельцу, контролирующим и надзирающим органам. Определить ситуации, когда системы с ИИ должны прекратить выполнение программы уничтожения людей (поднятый противником белый флаг или поднятые вверх руки, классификация цели как некомбатанта, раненый военнослужащий и пр.).

Определить субъектов, которые вправе владеть и использовать технологии ИИ военного назначения. Недопустимо, чтобы такого рода военные системы могли попасть к террористам или преступникам. Важнейшей проблемой регулирования ИИ и робототехники является вопрос ответственности: кто отвечает за действия робота, особенно военного? Поэтому необходимо четко и ясно регламентировать баланс ответственности государства, военного командования, производителя систем с ИИ перед третьими лицами за вред, причиненный в ходе использования военных роботов.

В качестве самостоятельных направлений законодательного регулирования требуетсуточнить ответственность за вред, причиненный не оружием, а кибератаками, а также ответственность за вред, причиненный в результате технического сбоя в работе систем ИИ, т. е. без наличия причинно-следственной связи с действиями оператора. Вполне возможно, необходимо будет корректировать законодательство об обязательном страховании гражданской ответственности применительно к эксплуатации систем с ИИ41. Подлежит отдельному рассмотрению вопрос, кто должен нести ответственность за действия ИИ, обладающего способностью к самообучению? Ведь ИИ способен самостоятельно принять решение о совершении противоправных действий или бездействия, которые повлекут наступление вреда.

Если алгоритм работы программы модифицируемый, то разработчик не может отвечать за применение робототехнической системой после модификации того, что он разработал, а  человек, эксплуатирующий его, не может полноценно управлять и контролировать систему с неизвестными ему правилами поведения42. Безусловно, автономная система в вычислении чисел, поиске большого объема данных и их сортировке, быстром реагировании на срочные задания, способности одновременно выполнять несколько задач, в том числе сложных, превосходит способности человека. Однако только он — человек, способен размышлять, проявлять милосердие, применять имеющийся опыт к новым возникающим задачам, принимать осмысленные решения и нести за них юридическую ответственность43. Вывод: государство, которое победит в гонке по созданию ИИ, получит критическое и, возможно, неоспоримое военное преимущество, однако данный процесс должен происходить обязательно строго в правовом поле.

ПРИМЕЧАНИЯ

1 Flightglobal. URL: https://www. flightglobal.com/fixed-wing/darpa-testsartificial-intelligent-dogfighting-in-twoversus-one-simulations/142993.article (дата обращения: 30.01.2022). 2 Breakingdefense. URL: https:// breakingdefense.com/2019/03/atlas-killerrobot-no-virtual-crewman-yes/? (дата обращения: 30.01.2022). 3 Aegis BMD, MDA. URL: http://www. mda.mil/system/Aegis bmd.html (дата обращения: 30.01.2022). 4 Th e National Interest. URL: https:// nationalinterest.org/blog/reboot/spread-outand-networked-how-navy-plans-fight-andwin-future-wars-183803 (дата обращения: 10.02.2022). 5 Коммерсантъ. 2021. 15 сентября. 6 Department of Defense. Electro-magnetic Spectrum Superiority Strategy. October 2020. URL: https://media.defense.gov/2020/ Oct/29/2002525927/-1/-1/0/electromagnetic_ spectrum_superiority_strategy.pdf (дата обращения: 30.01.2022). 7 Струкова П.Э. Искусственный интеллект в Китае: современное состояние отрасли и тенденции развития // Вестник Санкт-Петербургского университета. Востоковедение и африканистика. 2020. Т. 12. Вып. 4. С. 588—606. 8 Харпер Д. Китай сравнялся с Пентагоном по уровню ИИ // Журнал Национальной обороны США (National defense magazine) 2022. 6 января. 9 Фаличев О., Галанин Ю. Железные контрактники // Военно-промышленный курьер. 2018. 2 октября. 10 Буренок В.М., Ивлев А.А., Корчак В.Ю. Развитие военных технологий XXI века: проблемы планирование, реализация. Тверь: Издательство ООО «КУПОЛ», 2009. 624 с. 11 Интервью Главнокомандующего Сухопутными войсками ВС РФ генерала армии О. Салюкова // Красная звезда. 2021. 1 октября. 12 Выступление В.В. Путина на совещании с руководством Минобороны Роспредприятий ОПК 3 ноября 2021 г. // Официальный сайт Президента России http:// kremlin.ru/events/president/news/67061 (дата обращения: 30.01.2022). 13 Официальный сайт Президента России. URL: http://kremlin.ru/events/president/ news/64684 (дата обращения: 30.01.2022). 14 Литовкин Д. Бездушная армия. Зачем Минобороны меняет солдат на роботов // https://tass.ru/opinions/11452767 (дата обращения: 30.01.2022). 15 Аналитическое агентство TAdviser. URL: https://www.tadviser.ru/index.php/ Компания:Управление_Минобороны_ РФ_по_развитию_искусственного_интеллекта#cite_note-0 (дата обращения: 10.02.2022). 16 Официальный сайт Минобороны России URL: https://structure.mil.ru/ structure/ministry_of_defence/details. htm?id=11376@egOrganization (дата обращения: 30.01.2022). 17 Птичкин С. Искусственный интеллект все чаще помогает военным // Российская газета. 2020. 23 августа. 18 Распоряжение Правительства РФ от 19.08.2020 № 2129-р «Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года» // СЗ РФ. 2020. № 35. Ст. 5593. 19 Буренок В.М. Искусственный интеллект в военном противостоянии будущего // Военная Мысль. 2021. № 4. С. 106—112. 20 Аверкин  А.Н., Гаазе-Рапопорт  М.Г., Поспелов Д.А. Толковый словарь по искусственному интеллекту. М.: Радио и связь. 1992. 256 с. 21 Национальная стратегия развития искусственного интеллекта на период до 2030 года. Утв. Указом Президента РФ от 10.10.2019 № 490 // СЗ РФ. 2019. № 41. Ст. 5700. 22 См, например, Лаптев В.А. Понятие искусственного интеллекта и юридическая ответственность за его работу // Право. Журнал Высшей школы экономики. 2019. № 2. С. 79—102. 23 Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года. Утв. Распоряжением Правительства РФ от 19.08.2020 № 2129-р // СЗ РФ. 2020. № 35. Ст. 5593. 24 Hellström Th omas On the moral responsibility of military robots // Ethics and Information Technology. 2013. Vol. 15. Р. 99—107. 25 Palmerini E., Bertolini A., Battaglia F. et al. RoboLaw: Towards a European framework for robotics regulation  // Robotics and Autonomous Systems. 2016. Vol. 86. P. 78—85. 26 Утв. Распоряжением Правительства РФ от 31.12.2020 № 3684-р // СЗ РФ. 2021. № 3. Ст. 609. 27 В феврале 2022 года американская компания TuSimple, чей грузовик первым в мире совершил полноценный автономный 700-километровый рейс без человека в кабине или удаленного оператора, заявила, что нашла первого коммерческого клиента для такого рода рейсов. URL: www. tusimple.com 28 Заключена в г. Женеве 10.10.1980 // Ведомости ВС СССР. 1984. № 3. Ст. 50. 29 Ст. 23 IV Гаагской конвенции о законах и обычаях сухопутной войны от 18.10.1907 // Международное гуманитарное право в документах. МНИМП. М., 1996. С. 575—587. 30 Захарцев С.И. и др. Искусственный интеллект в механизме развития человеческой цивилизации / С.И.  Захарцев, Н.Д. Литвинов, В.П. Сальников, В.С. Чернявский // Юридическая наука: история и современность. 2021. № 4. С. 47—73. 31 Cook A. Taming killer robots: Giving meaning to the «Meaningful human control»: Standard for lethal autonomous weapon systems – Air University Press. Maxwell Air Force Base, Alabama, 2019. 32 Холиков И.В. Некоторые проблемные вопросы международно-правовой регламентации использования беспилотных морских систем в военных целях // Военное право. 2019. № 6. С. 276—282. 33 Грищенко Н. Беспилотник впервые выследил и атаковал человека без участия оператора // Российская газета. 2021. 31 мая. 34 Bergman R., Fassihi F. Th e Scientist and the A.I.-Assisted, Remote-Control Killing Machine // Th e New York Times. 2021. September 19. 35 Федеральный закон от 28.06.2021 № 231-ФЗ «О внесении изменений в Федеральный закон “Об оружии” и отдельные законодательные акты Российской Федерации» // СЗ РФ. 2021. № 27 (ч. I). Ст. 5059. 36 См. Постановление Правительства РФ от 15.10.1997 № 1314 (ред. от 15.07.2021) «Об утверждении Правил оборота боевого ручного стрелкового и иного оружия, боеприпасов и патронов к нему, а также холодного оружия в государственных военизированных организациях» // СЗ РФ. 1997. № 42. Ст. 4790. 37 Лейба В.Н. Ответственность воинской части по обязательствам, возникающим вследствие причинения вреда: дис. ... канд. юрид. наук. М.: ВПА, 1973. С. 71—72. 38 Рыльская М.А. Кибервойна: новый взгляд на проблему семантической и правовой идентификации // Военное право. 2020. № 1. С. 243—250. 39 Elon Musk Says Artifi cial Intelligence Is the ‘Greatest Risk We Face as a Civilization’ // Fortune. 2017. July 15. 40 В настоящее время согласно ст. 3, 7 и 9 Федерального закона от 27.07.2006 №  152-ФЗ (ред. от 02.07.2021) «О персональных данных» получение, обработка и распространение персональных данных, в том числе фотоизображений, возможно только с согласия самого человека. 41 Президент России В.В.Путин поручил Правительству РФ проработать данный вопрос (см. Перечень поручений по итогам конференции «Путешествие в мир искусственного интеллекта», утв. Президентом РФ 16.12.2021 № Пр-2371). URL: http://kremlin.ru 42 Тиханычев О.В. Автономная робототехника: о проблеме контроля модифицируемых алгоритмов // Вопросы безопасности. 2020. № 2. С. 36—47. 43 Чернявский А.Г., Сибилева О.П. Автономное высокоточное оружие как вызов международному гуманитарному праву // Военное право. 2020. № 4. С. 229—238

 

 

Авторство: 
Копия чужих материалов

Люди не понимают что такое сильный ИИ и что он не будет советоваться в совей деятельности с людьми, теперь люди младшие или муравьи.

Попытки кожанных мешков на ножках повлиять на искуственные негуманоидные системы силой юридических бумажек.

Комментарии

Аватар пользователя ВладиславЛ
ВладиславЛ(5 лет 6 месяцев)

Неприменимо - будут применять кто как видит. Это то как ХОТЕЛОСЬ БЫ глобалистам. Так работать не будет.

 

Ну и главное, если у вас система, не биологоическое существо или группа лиц создала рой дронов именно она, а не человек будет определять её параметры. Например темп размножения, типы поведения в той или иной ситуации. Вы сможете лишь втупать или нет с ней в симбиотизм как с пчёлами,

причём пчёлы это уже люди могут быть отностилеьно таких систем т.к. они будут наголову способнее в тех развлекаловках с трупами, что люди любят делать особенно устраивая войны против русского сектора в последние 1500 лет минимум, хотя воронки у Москвы астериодные есть гораздо более ранние.

Писал о вопросе лет 10-15 назад впервые.

 

Никто ни с кем договариваться не будет. Это иллюзия.  Вы не договариваетесь с муравейником при прокладки трасс через лес, часто даже не отодвигаете. С вами также никто не будет канителится - вы или войдёте, СМОЖЕТЕ войти в симбиотизм или нет - у русских как раз прекрасные способности к оному и работе с негуманоидными системами но в определённых условиях - соседом русского должен быть русский. Не будет русских с ИХ СРЕДОЙ ОБИТАНИЯ не будет и эффективного симбиотизма. Я много не дам за тех кто останется. Приживалки влачащие жалкое существование по сравнению с условно "русским симбиотизмом" - я его так назвал, в лучшем случае.

 

Считаю что статья ввиду важности поднимаемых проблем а также неверному их решению, могущему привести к тягчайшим последствиям достойна Пульса.

Комментарий администрации:  
***отключен (антигосударственная пропаганда, систематические набросы) ***
Аватар пользователя bom100
bom100(12 лет 3 месяца)

В перспективе - будет необходимо договариваться. Иначе плохо будет всем

Аватар пользователя Гамулятор
Гамулятор(5 лет 3 месяца)

Закон граблей никто не отменял - сначала станет плохо, потом будут договариваться.

Аватар пользователя Repptilia Vulgaris
Repptilia Vulgaris(2 года 9 месяцев)

Любой самый продвинутый ИИ рано или поздно придет к очевиднейшей мысли, что все беды от самих людей ))

Аватар пользователя kaiter
kaiter(3 года 4 месяца)

Выдумайте уже наконец какую нибудь адскую херь, которой можно одним нажатием кнопки всех убить, и примените. (бо человечество похоже именно этого жаждет и всем своим НТРом к сему тянется...)

Аватар пользователя bom100
bom100(12 лет 3 месяца)

Проект "Немезида". Подгоняется на орбиту Земли астероид размером метров 100-150. Так чтобы хватило. И устанавливается ядерный заряд таким образом, чтобы после взрыва астероид сошел со стационарной орбиты и упал - куда-то.. Лучше и надежнее Периметра

Аватар пользователя kaiter
kaiter(3 года 4 месяца)

Тут я за нас спокоен. Чего нибудть или предумаем, или Уже есть. Весь вопрос - когда решимся.

Аватар пользователя Prib
Prib(1 год 8 месяцев)

Лыко да мочало, начинай сначала. Теперь в военной сфере.

Аватар пользователя Adept_
Adept_(2 года 1 месяц)

Неустранимое свойство ИИ - способность ошибаться.

Аватар пользователя bom100
bom100(12 лет 3 месяца)

А чем в этом случае он (ИИ) отличается от Естественного интеллекта?

Аватар пользователя Adept_
Adept_(2 года 1 месяц)

Как раз в этом ничем. Что их и роднит.