Применение искусственного интеллекта в военных целях: проблемы теоретизации и правового регулирования

Автор: Атабеков Атабек Рустамович

Журнал: Общество: политика, экономика, право @society-pel

Рубрика: Право

Статья в выпуске: 4, 2023 года.

Бесплатный доступ

Статья посвящена рассмотрению вопросов терминологического определения автономных летальных средств вооружения, их практического применения, установления правовых и технологических аспектов использования искусственного интеллекта для военных целей с учетом теоретических и практических наработок зарубежных стран, наднациональных объединений и международных организаций. Описаны дифференцированные оценки систем автономного вооружения в плане возможности их внедрения в практику ведения боевых действий в зависимости от уровня подконтрольности человеку. Представителями мирового сообщества отмечено, что искусственный интеллект, способный функционировать абсолютно без управления со стороны оператора, представляет опасность для гражданского населения вследствие неизбирательности действия и невозможности отменить ошибочно запущенную программу внешним воздействием. Обозначена необходимость регламентации применения военного ИИ. Предлагается комплекс административно-правовых компенсирующих мероприятий для безопасной и легитимной эксплуатации ИИ в правовом поле Российской Федерации.

Еще

Искусственный интеллект, автономные военные средства вооружения, сравнительно-правовое исследование военного ии, безопасный ии, правовое поле, регламентирующие документы

Короткий адрес: https://sciup.org/149142459

IDR: 149142459   |   DOI: 10.24158/pep.2023.4.15

Текст научной статьи Применение искусственного интеллекта в военных целях: проблемы теоретизации и правового регулирования

Современный период развития общества характеризуется значительным техническим прогрессом, в рамках которого широкое распространение получил искусственный интеллект (далее – ИИ). Цель настоящего исследования – провести сравнительный анализ действующих подходов к интеграции ИИ в сферу публичных правоотношений зарубежных стран и России в контексте военно-промышленного комплекса (далее – ВПК).

Указанная цель подразумевает выполнение следующих задач:

  • 1.    Рассмотрение дефиниционного аппарата в отношении ИИ, применяемого в военной сфере в мировой практике.

  • 2.    Изучение теоретических и практических подходов к условиям применения ИИ в военной сфере и их возможному правовому оформлению.

  • 3.    Разработка правовых мероприятий, обеспечивающие безопасную интеграцию ИИ в ВПК России.

Объект исследования – нормативные и иные документы, регламентирующие вопросы интеграции ИИ, предлагаемые национальными и наднациональными объединениями зарубежных стран, а также академические публикации по исследуемой проблематике.

Методология работы представлена использованием комплекса современных философских, общенаучных, специально-научных методов познания, включая диалектический, системный, структурно-функциональный, герменевтический, сравнительно-правовой, формально-юридический (догматический) и др.

В рамках настоящего исследования делается особый акцент на изучении опыта различных государств в правовом регулировании применения ИИ для нужд ВПК.

Необходимо отметить, что использование передовых информационных технологий в оборонном секторе хорошо себя зарекомендовало в силу того, что несло с собой ряд преимуществ на доктринальном уровне1 (Marchant, 2015): точность сектора поражения, сокращение «человеческих издержек» в лице комбатантов, уменьшение рисков послевоенной адаптации для членов общества и т. д.

Необходимо понимать, что военный потенциал ИИ напрямую связан со скоростью принятия решения (Sisson, 2019: 7–8), что ставит под вопрос целесообразность самого военного противостояния.

Базовыми нормами, определяющими регламентацию правоотношений на международном уровне относительно индивидуальной и коллективной самообороны, выступают: ст. 2, п. 4; ст. 51 о самообороне и глава VII о полномочиях Устава СБ ООН2, в которых рассматриваются вопросы международной коллективной безопасности (Delahunty, 2007).

При этом следует понимать, что указанный правовой институт регламентирует, в том числе, вопросы реализации процедуры возмещения убытков и иных компенсаций для участников военных действий (Morgenthau, 1978).

Практическое применение ИИ в военной сфере хорошо иллюстрируют беспилотные средства для патрулирования (например, в Корее – ДМЗ-24) (Klare, 2019: 6). Данная технология не является аналогом полностью автономного ИИ, однако постепенно отказывается от необходимости человеческого контроля. Идентичный пример – DARPA, использующие пули с наведением, цель которых определяется оператором (Laton, 2017). В этой связи возникает вопрос не столько об автономности подобного ИИ, сколько о степени фактического вмешательства в его деятельность со стороны человека, что оставляет надежду на ограниченное сохранение субъектного контроля (Singer, 2010).

При этом алгоритм применения военного ИИ может быть аналогичным тому, который уже апробирован и отработан на примере наземных мин (при заданных условиях) (Lewis, 2015). Данный тип активации ИИ обладает широким спектром применения в составе наземного, климатического вооружения, внутренних систем СКУД (система контроля и управления доступом по принципу «свой – чужой») и иных. Ряд аналитиков предлагает не включать в практическое использование только те, которые имеют автономное или полуавтономное наведение и/или развертывание сил3, внешнее управление в течение длительного периода (Noorman, Johnson, 2014: 58–59), а также со способностью принимать собственные решения (Solis, 2021: 8–10). Данный подход не лишен смысла, однако практика диктует необходимость применения ИИ с высокой скоростью реакции и приспособления к меняющимся внешним условиям, что невозможно без автономности ИИ (Golubski, 2002: 170–173; Lucas, 2016: 9–13).

Одним из аспектов, влияющих на регулятивный аспект применения ИИ для военных целей в контексте степени его автономности, является сложность идентификации поражаемой цели в рамках боевых действий, например, стоит вопрос о точности различения гражданского населения и комбатантов. В этой связи необходимо оценивать возможность применения определенных средств поражения, которые потенциально могут навредить гражданскому населению. вопрос принятия решения переходит в моральную плоскость1.

В этой связи особую значимость приобретают нормы и правила, регламентирующие использование ИИ в военных целях. Сложность их установления определяется множественностью факторов и их неопределенностью (Boulanin et al., 2020: 23–25), а также универсальность их применения на всех этапах принятия решения относительно деятельности ИИ.

Кроме того, на уровне национальных законодательств различных стран возникает базовый вопрос применения автономных летальных средств с учетом характера их применения – наступательные ИИ или оборонительные ИИ2.

Первым принципиальным вопросом для целей правового регулирования военного ИИ является создание единого дефиниционного аппарата. Следует понимать, что доктринальных и правовых определений указанной технологии существует множество, и они варьируются в зависимости от страны и принятой в ней правовой культуры.

Выработка общего понимания ключевых характеристик ИИ позволит сделать шаг вперед к унификации требований его применения для военных целей.

В первую очередь при дефинировании следует помнить о том, что указанная технология может самостоятельно принимать решения после анализа ситуации, видеть все вокруг и реагировать на меняющиеся обстоятельства, как люди, только быстрее3. Речь в этом случае идет об автономности функционирования ИИ. Данная характеристика дифференцируется по степени проявления у технических средств, обладающих ИИ: может предусматриваться прямое управление человеком, частичное (при делегировании части функций для самостоятельного выполнения машине), удаленное на уровне целеполагания (полностью автономное тактическое исполнение решений со стороны ИИ).

Соединенные Штаты Америки характеризуют систему автономного вооружения (Autonomous Weapon Systems – AWS) как способную после активации самостоятельно выбирать цели и поражать их без дальнейшего вмешательства человека-оператора. Данный термин включает в себя системы вооружений, находящихся под наблюдением человека-оператора с возможностью блокировки функций ИИ, однако в целом упор делается на полную автономию техники4.

В США выделяют четыре уровня автономии ИИ, используемого для военных целей: управляемые человеком, с делегированными функциями, автономные с возможностью управления, полностью независимые от вмешательства человека. Первые три концептуальные формулировки относительно понятны, однако последний уровень автономии предполагает, что такие системы не требуют внешнего контроля человека и действуют в логике установленных законом норм и военной стратегии, определяющей поведение ИИ5.

Интересный подход к этому вопросу демонстрирует Великобритания, чьи военные специалисты дифференцируют автоматическое и автономное оружие.

Автоматические системы – это системы, которые «в ответ на входные данные от одного или нескольких датчиков запрограммированы логически следовать заранее определенному набору правил, чтобы обеспечить необходимый исход. Знание набора правил, по которым он работает, означает, что его результат предсказуем»6.

Автономная система – это система, «способная понимать намерение и направление более высокого уровня. Исходя из этого понимания и восприятия окружающей среды, она может предпринять соответствующие действия для достижения желаемого состояния. Способна выбирать курс действий из ряда альтернатив, не завися от человеческого контроля, хотя он может обеспечиваться. Общая активность автономного аппарата будет предсказуема, при этом отдельные действия могут быть непредсказуемыми»7.

Для ЕС общий базовый подход был сформулирован еще в 2018 г. и определял нежелательность применения летального AWS в военной сфере1. Однако указанная резолюция носила рекомендательный характер, и впоследствии инициативы ЕС были направлены на детализацию правового статуса и оформления регламентирующих документов в отношении применения AWS странами – членами ЕС2.

В Голландии AWS рассматривается как оружие, «которое без вмешательства человека выбирает и поражает цели, соответствующие определенным заранее определенным критериям, следуя указаниям человека». При этом отмечается, что при начале развертывания системы в атакующей интерпретации уже отсутствует возможность вмешательства в процесс со стороны человека3.

Для Франции AWS – это полностью автономные системы, подразумевающие отказ от человеческого контроля, что означает абсолютное отсутствие связи с оборудованием и невозможность коррекции его действий со стороны командного пункта. Платформа AWS в этом случае способна двигаться, адаптироваться к своей наземной, морской или воздушной среде, а также самостоятельно выбирать цель и запускать смертоносный эффектор (пулю, ракету, бомбу и т. д.) без какого-либо вмешательства человека или его верификации с возможными функциями самообучения4.

Позиция немецкого сообщества в применении указанных средств военного применения ИИ на дату подготовки статьи отрицательная. Базовый тезис о недопустимости применения указанных летальных AWS был озвучен министром иностранных дел Хайко Маасом еще в 2018 г.5 Были попытки на уровне парламентских слушаний вернуть указанные технологии в список допустимых средств вооружения группой Bündnis 90/Die Grünen. Однако данная инициатива была пресечена (Dahlmann, Dickow, 2019: 7–9). В Бундесвере (Вооружённые силы Федеративной Республики Германия) также распространена неоднозначная позиция относительно применения ИИ в военной сфере. Так, управляемые дроны считаются допустимым видом вооружения, а применение полностью автономных систем пока отрицается (Wellbrink, 2014: 54–55)6. Федеральное министерство обороны не упоминает военную робототехнику в «Белой книге обороны» 2016 г.7

Актуальное определение летальных AWS в Германии имеет интересную интерпретацию в контексте ИИ. Под ними понимаются системы вооружения, полностью исключающие человеческий фактор при принятии решений. Кроме того, терминологически и концептуально различаются новые технологии в области летальных AWS и собственно летальные AWS. Первые предполагают цифровизацию военного дела и активное внедрение ИИ, который можно использовать в полном соответствии с международным правом8.

НАТО определяет летальные AWS как систему, которая в ответ на входные данные следует заранее определенному набору правил для обеспечения предсказуемого результата, основываясь на приобретенных знаниях, меняющихся условиях, оперируя ситуационной осведомленностью. Такие программы следуют оптимальному, но потенциально непредсказуемому курсу действий9.

Китай на конференции в Женеве обозначил свое восприятие автономных летальных средств следующими базовыми 5 характеристиками (но не ограничиваясь ими):

  • 1.    Летальность – достаточная полезная нагрузка (заряд) и средства для летального действия.

  • 2.    Автономность – отсутствие вмешательства и контроля со стороны человека в течение всего процесса выполнения задачи.

  • 3.    Бесконтрольность – невозможность принудительного завершения работы устройства после запуска.

  • 4.    Неизбирательность – выполнение задачи по убийству и нанесению увечий независимо от условий, сценариев и целей.

  • 5.    Эволюция – способность устройства к автономному самостоятельному обучению посредством взаимодействия с окружающей средой1.

Израиль на той же конференции в Женеве заявил, что все виды вооружения, в том числе и военный ИИ, используются сейчас и будут использоваться в будущем людьми, поэтому предлагается исходить из того, что вопрос автономности все равно определяется человеком2.

Показательно, что для Международного комитета Красного Креста (МККК) летальные AWS – это любая система вооружения с автономией в своих критических функциях, то есть система оружия, которая может выбирать (искать или обнаруживать, идентифицировать, отслеживать, выбирать) и атаковать (применять силу против кого-либо, нейтрализовать, повреждать или уничтожать) цели без вмешательства человека3.

Следует отметить, что указанная дискуссия относительно содержания используемых терминов для обозначения автономных систем вооружения вызвала интерес со стороны Института Организации Объединенных Наций по исследованию проблем разоружения, который, развивая логику, озвученную выше МККК, обозначил, что с технической точки зрения любая система, которая продолжает обучаться во время развертывания и функционирования, постоянно меняется, адаптируясь к окружающим условиям. Это уже не та система, которая была проверена для развертывания, что вызывает вопросы о законности адаптивных систем, особенно в отношении обязательств государств – членов ООН по статье 36 Дополнительного протокола I к Женевским конвенциям о рассмотрении законности нового оружия, средств или метода ведения войны4.

Следует отметить, что Российская Федерация выразила критическую позицию в отношении запрета указанной технологии ИИ, поскольку представители разных стран уже сейчас используют полуавтономные средства вооружения, а дефиниционный аппарат сильно варьируется в зависимости от страны, что требует выработки единого понимания данного термина с учетом технологического прогресса5.

Базовое определение искусственного интеллекта отражает комплекс технологических решений, позволяющий имитировать когнитивные функции человека и получать сопоставимый с ними результат от автономной цифровой программы6.

При этом данная трактовка не является употребительной для военной сферы, поскольку в ней специальное определение строится вокруг конструкции автоматизированных систем управления (АСУ) (Козар, Моисеев, 2012: 33–34; Каргин, Гринь, 2020: 73–74)7. В военном контексте

АСУ означает «систему, основное предназначение которой заключается в обеспечении качественного выполнения войсковыми формированиями боевых задач в интересах достижения целей операции (боя), проводимой общевойсковыми объединениями (соединениями, частями)»1.

Вопросы дефиниционного аппарата, ключевых характеристик автономных систем вооружения и регламентации применения находят свое отражение также в трудах отечественных ученых в области права (Ахмадова, 2021: 37; Глухов, 2022: 82–82; Беликова, 2020: 229; Харитонова, 2021: 78; Глебов, 2018: 116), военного дела (Об информатизации вооруженных сил Российской Федерации …, 2019: 65–66; Буренок, 2021: 111–112).

Говоря о практике применения военного ИИ, можно отметить следующие его функции: использование системы поддержки принятия решений2, обучение по принципу цифрового двойника3, а также управление войсками и оружием4. При этом непосредственная ответственность за саму систему АСУ, ее разработку и внедрение в войска возлагается на конкретного руководителя, осуществляющего управление войсками, со всеми последующими правовыми последствиями.

В силу действующего приказа Министра обороны России провести детальный анализ правоприменительной практики и судебных разбирательств в отношении отданных приказов АСУ (или военному ИИ) не представляется возможным5.

Следует отметить, что практическое и дефиниционное отличие в отношении автономных летальных военных средств на уровне различных стран формирует для России возможный базис для определения своей национальной стратегии в указанной области. При этом в контексте права мы видим, что значимыми показателями для регламентации являются: степень автономности ИИ для военной сферы применения, условия его активации, а также градирование ответственности на различных этапах (входные данные, обработка и интерпретация их ИИ или оператором, обеспечение конечного результата). Кроме того, нельзя не отметить, что поспешность в ограничении распространения указанной технологии в военной сфере приведет только к ухудшению условий в отношении гражданского применения ИИ.

На основании вышеизложенного можно сформулировать следующие предложения по возможному регулированию сферы использования ИИ в России с учетом трансграничных правовых и технологических рисков, не углубляясь в сферу этических аспектов:

  • 1.    Необходимо закрепить законодательно определение искусственного интеллекта, используемого в военных целях, с градацией степени автономности, определением масштаба потенциального ущерба, целей использования, риска взлома программного обеспечения и нанесения вреда национальным интересам.

  • 2.    Должна быть осуществлена административная регламентация допустимых горизонтов применения автономного ИИ и условий его активации для военной сферы.

  • 3.    Требуется разработка универсальных правил использования ИИ, которые позволят однозначно трактовать и маркировать ситуации, возникающие в ходе военного применения автономных систем.

  • 4.    Необходимо дополнение действующих норм конкретизацией зон ответственности для разработчика, пользователя и администратора системы за действия ИИ в рамках принимаемых им решений на основе поступающих входных данных для ИИ, в процессе их обработки, интерпретации и формирования результата.

Список литературы Применение искусственного интеллекта в военных целях: проблемы теоретизации и правового регулирования

  • Ахмадова М.А. Правовое регулирование развития и применения искусственного интеллекта в военной сфере России в контексте государственной стратегии и обеспечения охраны прав интеллектуальной собственности // Право и политика. 2021. № 8. С. 26-42. https://doi.Org/10.7256/2454-0706.2021.8.36144.
  • Беликова К.М. Основа правового регулирования развития и применения искусственного интеллекта в военной сфере Китая в контексте государственной стратегии и охраны авторских и патентных прав // Пробелы в российском законодательстве. 2020. Т. 13, № 5. С. 223-233.
  • Буренок В.М. Искусственный интеллект в военном противостоянии будущего // Военная мысль. 2021. № 4. С. 106-112.
  • Глебов И.Н. Правовое регулирование автономных роботизированных средств ведения войны // Российское государ-ствоведение. 2018. № 3. С. 104-116.
  • Глухов Е.А. О правовом регулировании применения искусственного интеллекта в военной сфере // Военная мысль. 2022. № 8. С. 73-85.
  • Каргин В.Н., Гринь В.Р. Роль военной стандартизации в создании автоматизированных систем военного назначения // Военная мысль. 2020. № 2. С. 70-80.
  • Козар А.Н., Моисеев В.С. Информационные технологии оптимального применения управляемых артиллерийских снарядов. Казань, 2012. 346 с.
  • Об информатизации вооруженных сил Российской Федерации / О.В. Масленников [и др.] // Военная мысль. 2019. № 12. С. 57-67.
  • Харитонова Ю.С. Правовое регулирование применения технологии искусственного интеллекта в военном деле: опыт России и Китая // Журнал прикладных исследований. 2021. № 1-2. С. 72-80. https://doi.org/10.47576/2712-7516_2021_1_2_72.
  • Boulanin V., Davison N., Goussac N., Carlsson M.P. Limits on Autonomy in Weapon Systems: Identifying Practical Elements of Human Control. Solna, 2020. 53 р.
  • Dahlmann A., Dickow M. Preventive Regulation of Autonomous Weapon systems. Need for Action by Germany at Various Levels. Berlin, 2019. 28 р.
  • Delahunty R.J. Paper Charter: Self-Defense and the Failure of the United Nations Collective Security System. Minneccota, 2007. 131 р.
  • Golubski W. Genetic Programming: A Parallel Approach // Soft-Ware 2002: Computing in an Imperfect World. Berlin, 2002. С. 166-173.
  • Klare M.T. Autonomous Weapons Systems and the Laws of War // Arms Control Today. 2019. Vol. 49, iss. 2. Р. 6-12.
  • Laton D. Manhattan_Project.exe: A Nuclear Option for the Digital Age // Catholic University Journal of Law and Technology. 2017. Vol. 25, iss. 1. Р. 1-61.
  • Lewis J. The Case for Regulating Fully Autonomous Weapons // The Yale Law Journal. 2015. Vol. 124. Р. 1-17.
  • Lucas N.J. Lethal Autonomous Weapon Systems: Issues for Congress. Washington, 2016. 31 р.
  • Marchant G.E., Allenby B., Arkin R.C., Borenstein J., Gaudet L.M., Kittrie O., Lin P., Lucas G.R., O'Meara R., Silberman J. International Governance of Autonomous Military Robots // Handbook of Unmanned Aerial Vehicles. Dordrecht, 2015. Р. 28792910. https://doi.org/10.1007/978-90-481-9707-1_102.
  • Morgenthau H.J. Politics among Nations: The Struggle for Power A. Peace. N. Y., 1978. 650 с.
  • Noorman M., Johnson D.G. Negotiating Autonomy and Responsibility in Military Robots // Ethics and Information Technology. 2014. Vol. 16, iss. 1. Р. 51-62. https://doi.org/10.1007/s10676-013-9335-0.
  • Singer P.W. War of the Machines // Scientific American. 2010. Vol. 303, iss. 1. Р. 56-63.
  • Sisson M., Spindel J., Scharre P., Kozyulin V. The Militarization of Artificial Intelligence. N. Y., 2019. 32 р.
  • Solis G.D. The Law of Armed Conflict: International Humanitarian Law in War. Cambridge, 2021. 659 р. https://doi.org/10.1017/9781108917797.
  • Wellbrink J. Mein Neuer Kamerad-Hauptgefreiter Roboter // Ethik und Militär. Kontroversen der Militärethik und Sicherheitskultur. 2014. Vol. 1, iss. 2014. Р. 52-55.
Еще
Статья научная