Использование искусственного интеллекта при совершении преступлений: проблемы уголовно-правовой квалификации и перспективы законодательной регламентации
Автор: Басханов А.М., Хучиев Р.Р.
Журнал: Евразийская адвокатура @eurasian-advocacy
Рубрика: Правосудие и правоохранительная деятельность в Евразийском пространстве
Статья в выпуске: 1 (78), 2026 года.
Бесплатный доступ
Статья посвящена анализу актуальных проблем уголовно-правовой оценки деяний, совершаемых с применением технологий искусственного интеллекта (далее – ИИ). Авторы исследуют правовую природу ИИ как средства совершения преступления, рассматривают вопросы квалификации преступлений, совершенных с использованием дипфейков и автономных систем.
Искусственный интеллект, уголовная ответственность, квалификация преступлений, дипфейк, субъект преступления
Короткий адрес: https://sciup.org/140314303
IDR: 140314303 | УДК: 343.3 | DOI: 10.52068/2304-9839_2026_78_1_90
The Use of Artificial Intelligence in Crimes: Problems of Criminal Qualification and Prospects of Legislative Regulation
The article analyzes the current problems of criminal law assessment of acts committed with the use of artificial intelligence technologies (hereinafter – AI). The authors explore the legal nature of AI as a means of committing a crime and consider the issues of qualification of crimes committed with the use of deepfakes and autonomous systems.
Текст научной статьи Использование искусственного интеллекта при совершении преступлений: проблемы уголовно-правовой квалификации и перспективы законодательной регламентации
Острой проблемой современной уголовноправовой доктрины является определение статуса искусственного интеллекта в механизме совершения преступления. Классическая теория уголовного права исходит из принципа личной ответственности, согласно которому субъектом преступления может быть только вменяемое физическое лицо, достигшее возраста уголовной ответственности. Однако автономность современных систем ИИ, способных к самообучению и принятию решений в условиях неопределенности, ставит под сомнение универсальность этого подхода.
Субъективная сторона преступления, включающая вину в форме умысла или неосторожности, является обязательным элементом состава преступления. При использовании ИИ установление вины осложняется проблемой «непрозрачности». Глубокие нейронные сети, обучающиеся на больших данных, могут формировать модели поведения, не предусмотренные разработчиками.
Возникает вопрос: подлежит ли уголовной ответственности программист, создавший нейросеть для законных целей (например, для анализа финансовых рынков), если она самостоятельно «обучилась» инсайдерской торговле или манипулированию рынком?
Если разработчик предвидел возможность такого поведения и сознательно допустил его (косвенный умысел), ответственность наступает.
Если не предвидел, но должен был и мог предвидеть (преступная небрежность), ответственность также возможна, но доказывание факта «долженствования» требует сложных технических экспертиз.
Если поведение ИИ является следствием непрогнозируемой мутации весов нейросети (казус), в рамках действующего Уголовного кодекса Российской Федерации (далее – УК РФ) ответственность исключается [1, С. 33–35].
Исследования показывают, что содержание «вины» искусственного интеллекта (как технической категории ошибки) обладает признаками, схожими с интеллектуальными и волевыми моментами деятельности человека, но правовая оценка этих признаков невозможна без изменения парадигмы субъекта. В настоящее время ответственность распределяется между разработчиком (за закладку вредоносного кода), оператором (за использование ИИ в противоправных целях) и лицом, ответственным за внедрение (за отсутствие надлежащих мер безопасности).
Статья 159.6 УК РФ предусматривает ответственность за хищение, совершенное путем ввода, удаления, блокирования, модификации компьютерной информации либо иного вмешательства в функционирование средств хранения, обработки или передачи компьютерной информации. Это специальный вид мошенничества, где обман направлен не на человека, а на компьютерную систему.
Использование ИИ радикально расширяет способы совершения этого преступления.
Автоматизированный подбор паролей (брут-форс): использование ML-алгоритмов для анализа образцов поведения пользователей и генерации наиболее вероятных паролей значительно повышает эффективность атак по сравнению с простым перебором.
Обход антифрод-систем: состязательные атаки позволяют генерировать транзакции, которые алгоритмы защиты банков воспринимают как легитимные, маскируя хищение под обычную активность клиента.
Атака на биометрию: использование генеративных сетей для создания синтетических отпечатков пальцев или изображений лица (дипфей-ков) для доступа к банковским приложениям.
Сложность представляют вопросы квалификации. Постановление Пленума Верховного Суда РФ от 15 декабря 2022 г. № 37 [7] разъясняет, что мошенничество в сфере компьютерной информации, совершенное посредством неправомерного доступа к компьютерной информации (ст. 272 УК РФ) или посредством создания, использования и распространения вредоносных программ (ст. 273 УК РФ), требует дополнительной квалификации по соответствующим статьям. Это создает риск избыточной криминализации, так как сам способ (вмешательство в информацию) является конструктивным признаком ст. 159.6 УК РФ, однако судебная практика идет по пути идеальной совокупности.
Искусственный интеллект вывел социальную инженерию на новый уровень. Чат-боты на базе больших языковых моделей способны вести диалог с жертвой в режиме реального времени, адаптируя стиль общения под конкретного человека [2, С. 45–47].
В доктрине обсуждается проблема: является ли использование дипфейка при телефонном мошенничестве «вмешательством в функционирование средств обработки информации»? С технической точки зрения телефонная сеть передает информацию корректно. Искажение происходит на когнитивном уровне восприятия жертвы. Эксперты считают, что существующего инструментария (ст. 159 УК РФ) достаточно для борьбы с любыми видами обмана, включая высокотехнологичные. Вместе с тем распространено мнение о недопустимости применения уголовного закона по аналогии и квалификации действий по совокупности статей 159 и 272 УК РФ, если не было технического взлома системы.
Тем не менее, если дипфейк используется для обхода биометрической защиты, это однозначно подпадает под признаки модификации компьютерной информации (подмена биометрического вектора) и квалифицируется по ст. 159.6 УК РФ в совокупности со ст. 272 УК РФ.
Статья 273 УК РФ устанавливает ответственность за создание, использование и распространение вредоносных компьютерных программ. Современные киберугрозы все чаще используют ИИ для автоматизации атак.
Полиморфное вредоносное ПО: программы, которые постоянно меняют свой код с помощью ИИ, чтобы избежать обнаружения сигнатурными антивирусами.
Автоматизированные платформы атак: создание систем, которые самостоятельно сканируют сети, находят уязвимости и выбирают оптимальный эксплойт.
Объективная сторона ст. 273 УК РФ включает создание программ, заведомо предназначенных для несанкционированного уничтожения, блокирования, модификации, копирования информации. Применение ИИ ставит вопрос: является ли нейросеть «программой» в смысле ст. 273 УК РФ? Согласно примечанию к ст. 272 УК РФ, под компьютерной информацией понимаются сведения, представленные в форме электрических сигналов. Вредоносный ИИ представляет собой совокупность кода (архитектура) и данных (веса), что полностью охватывается понятием компьютерной информации [3, С. 13–19].
Статья 274.1 УК РФ является специальной нормой, охраняющей критическую информационную инфраструктуру (далее – КИИ). Использование ИИ для атак на КИИ (например, автоматизированные DDoS-атаки, управляемые ботнетами на базе ИИ) повышает степень общественной опасности. Судебная практика, отраженная в постановлении Пленума № 37, ориентирует суды на привлечение специалистов для выяснения технических вопросов, связанных с отнесением систем к КИИ [4, С. 39–42].
Особую опасность представляют «отравленные» данные. Если злоумышленник внедряет в обучающую выборку ИИ, управляющего объектом КИИ (например, системой управления шлюзами плотины), искаженные данные, это может привести к аварии в будущем. Такое действие следует квалифицировать как модификацию компьютерной информации, повлекшую тяжкие последствия (ст. 274.1 УК РФ).
Внедрение беспилотных транспортных средств (далее – БТС) на дорогах общего пользования создает правовой вакуум в части ответственности за дорожно-транспортные происшествия. Действующая статья 264 УК РФ («Нарушение правил дорожного движения и эксплуатации транспортных средств») субъектом преступления называет лицо, управляющее транспортным средством. В случае полностью автономного автомобиля водитель отсутствует.
Какие возможны варианты квалификации?
Ответственность разработчика (ст. 238 УК РФ): оказание услуг или производство товаров, не отвечающих требованиям безопасности. Если авария произошла из-за системной ошибки в коде, которую разработчик должен был выявить, это наиболее вероятный путь.
Ответственность за действия, угрожающие безопасной эксплуатации (ст. 267.1 УК РФ): данная статья криминализирует действия, совершенные извне (например, кибератака на сенсоры беспилотника, ослепление лазером, подмена GPS-сигнала). Это важный инструмент защиты БТС от внешнего вмешательства, но он не решает проблему внутренних сбоев.
Халатность (ст. 293 УК РФ): применима к должностным лицам, ответственным за допуск БТС на дороги, если они ненадлежащим образом проверили безопасность системы.
Аналогичная проблема возникает при использовании ИИ в медицине (системы поддержки принятия врачебных решений, хирургические роботы). В случае ошибки ИИ, повлекшей смерть пациента, ответственность может нести врач, если он слепо доверился рекомендации алгоритма вопреки клинической картине (неосторожность). Однако если алгоритм функционировал автономно (робот-хирург), вопрос ответственности смещается в плоскость качества программного обеспечения.
Очевидно, что сегодня в России необходима разработка стандартов тестирования ИИ-систем, нарушение которых будет являться обязательным условием для наступления уголовной ответственности разработчиков. Без четких технических регламентов доказывание вины в форме преступного легкомыслия или небрежности практически невозможно.
В делах, связанных с использованием ИИ, ключевым доказательством становятся логи, исходный код, веса нейросетей. Постановление Пленума ВС РФ № 37 ориентирует суды на привлечение специалистов для разъяснения технических терминов и анализа сложных вопросов. Однако проблема установления авторства действий остается острой. Использование VPN, цепочек прокси-серверов и автономных ботов затрудняет идентификацию реального злоумышленника. В этом контексте особую роль играют цифровые следы, оставляемые уникальными особенностями кода или стилем обучения нейросети.
Проведенное исследование позволяет сделать вывод, что действующая система уголовно-правового регулирования России, сформированная в доцифровую эпоху, требует точечной, но глубокой модернизации для эффективного противодействия преступности, использующей искусственный интеллект. Отказ от признания ИИ субъектом уголовной ответственности на данном этапе обоснован и соответствует принципам гуманизма и личной виновной ответственности [5]. Центром тяжести репрессивного механизма должен оставаться человек – разработчик, оператор или пользователь, использующий мощь алгоритмов во вред обществу [6, С. 112–115].
Вместе с тем специфика ИИ как инструмента (автономность, масштабность, непрозрачность) требует введения новых квалифицирующих признаков и специальных составов (в частности, по дипфейкам), а также пересмотра подходов к доказыванию умысла. Необходимо выработать собственный подход, сочетающий защиту национального цифрового суверенитета с гарантиями прав граждан и поддержкой технологического развития.
Имплементация предложенных изменений позволит восполнить существующие правовые пробелы, обеспечить неотвратимость наказания за высокотехнологичные преступления и создать безопасную среду для развития технологий искусственного интеллекта в Российской Федерации.