Проблема определения субъекта международной уголовной ответственности за преступления, совершенные с помощью смертоносных автономных систем вооружений
Автор: Скуратова А.Ю., Королькова Е.Е.
Журнал: Вестник Пермского университета. Юридические науки @jurvestnik-psu
Рубрика: Уголовно-правовые науки
Статья в выпуске: 1 (71), 2026 года.
Бесплатный доступ
Введение: интеграция искусственного интеллекта (ИИ) в военные системы, особенно смертоносные автономные системы вооружения (САС), обозначаемая как «третья революция в военном деле», порождает определенные сложности международно-правового регулирования. Ключевая проблема – определение субъекта ответственности за противоправные деяния, совершенные САС, функционирующими с высокой степенью автономии. Непредсказуемость поведения систем, особенно оснащенных «сильным ИИ» (способным к самообучению и адаптации), феномен «черного ящика» (непрозрачность процессов принятия решений) и «проблема многих рук» (распределенность разработки, производства и применения) создают правовой вакуум в вопросах привлечения к уголовной ответственности. Актуальность исследования обусловлена стремительным технологическим развитием на фоне отсутствия консенсуса в международно-правовом регулировании САС. Цель: комплексное изучение проблемы установления субъекта международной уголовной ответственности за преступления, совершенные с применением САС, с учетом их технических особенностей. Методы: методологическую основу составляет совокупность методов научного познания: общенаучные методы исследования (индукция, дедукция), а также частные (формально-логический, системно-структурный, сравнительно-правовой, технико-юридический и др.). Результаты: техническая автономность не тождественна правовой автономии, существуют проблемы установления причинно-следственной связи между участниками вооруженного конфликта, разработчиками/производителями и результатом, который достигнут с помощью САС. «Эффект черного ящика» затрудняет установление личной вины. Римский статут МУС требует высокого порога субъективной стороны, что сложно доказать применительно к разработчикам, операторам или командирам при совершении преступлений САС с «сильным ИИ». Правовые конструкции международной уголовной ответственности индивида неприменимы или труднореализуемы из-за проблем с установлением контроля, mens rea и причинно-следственной связи. Признание ИИ субъектом уголовной ответственности не отвечает принципу вины. Действующее международное уголовное право не содержит корректных форм ответственности для преступлений, совершенных посредством САС. Перспективным видится регулирование международно-правовой ответственности государств за противоправное использование САС. Выводы: международное уголовное право, в основе которого лежит индивидуальная уголовная ответственность, основанная на принципе личной вины, на современном этапе развития не приспособлено для адекватного наказания за преступления, совершенные высокоавтономными САС с «сильным ИИ». Нормативное регулирование в настоящий момент не решает проблему непредсказуемости поведения САС. Приоритетным направлением международно-правового регулирования должно стать обеспечение человеческого контроля на всех этапах жизненного цикла САС как гарантии соблюдения норм международного гуманитарного права и сохранения ответственности человека. Перспективными инструментами обеспечения подотчетности являются технологические решения (блокчейн для аудита решений, «черные ящики» для фиксации данных, «этические регуляторы»), а также реализация международно-правовой ответственности государств. Привлечение САС к уголовной ответственности или признание их правосубъектности несовместимо с фундаментальными принципами уголовного права и является нецелесообразным.
Смертоносные автономные системы вооружения, международное право, искусственный интеллект, международная уголовная ответственность, вооруженный конфликт
Короткий адрес: https://sciup.org/147253733
IDR: 147253733 | УДК: 341.4 | DOI: 10.17072/1995-4190-2026-71-104-124
The Problem of Determining Who Is Responsible Under International Criminal Law for Crimes Committed by Lethal Autonomous Weapons Systems
Introduction: the integration of artificial intelligence (AI) into military systems, particularly lethal autonomous weapons systems (LAWS), characterized as the “third revolution in warfare,” poses serious challenges to international law. The core problem lies in determining who is responsible for unlawful acts committed by LAWS operating with a high degree of autonomy. The unpredictability of the systems’ behavior — especially in systems equipped with “strong AI” (capable of selflearning and adaptation), the “black box” phenomenon (opacity in decisionmaking processes), and the “problem of many hands” (the distributed nature of development, production, and deployment) — creates a legal vacuum in matters of criminal accountability. The relevance of this research is underscored by rapid technological advancements occurring alongside a lack of consensus in the international legal regulation of LAWS. Purpose: the paper aims to provide a comprehensive analysis of the problem of establishing who is responsible under international criminal law for crimes committed by LAWS, with their technical features considered. Methods: the methodological framework of the study comprises a combination of scientific inquiry methods: general scientific methods (induction, deduction) and special methods, including formallogical, systemstructural, comparativelegal, and technicallegal analysis. Results: technical autonomy is not equivalent to legal autonomy. There exist significant challenges in establishing causation between an armed conflict participants, developers/producers, and outcomes achieved via LAWS. The “black box effect” impedes the determination of individual culpability (mens rea). The Rome Statute of the International Criminal Court (ICC) introduced a high threshold for mens rea, rendering it difficult to prove for developers, operators, or commanders in cases of crimes committed by LAWS with “strong AI.” The wellestablished modes of international criminal responsibility are either inapplicable or impracticable due to difficulties in establishing and proving control, mens rea, and causal links. Recognizing AI as responsible under criminal law does not comply with the principle of guilt. Current international criminal law lacks adequate forms of responsibility for crimes committed with the use of LAWS. State responsibility for acts perpetrated by LAWS presents a viable avenue but requires refined mechanisms for attribution.