Уголовно-правовые меры борьбы с преступлениями, совершаемыми с использованием технологий искусственного интеллекта
Автор: Щепетильников В.Н.
Журнал: Ex jure @ex-jure
Рубрика: Уголовно-правовые науки
Статья в выпуске: 1, 2025 года.
Бесплатный доступ
В статье рассматриваются как теоретические, так и практические вопросы применения уголовного законодательства в наиболее острых и актуальных ситуациях, связанных с совершением лицами преступных деяний с использованием искусственного интеллекта (ИИ). Выявляются основные тенденции в совершении преступлений с элементами ИИ и приводятся примеры из складывающейся судебной практики. Предлагаются некоторые уголовно-правовые средства противодействия подобным преступлениям, в том числе отнесение технологий смертоносных автономных систем к оружию массового поражения и установление уголовного запрета на их применение против гражданских объектов и мирного населения в рамках специальной нормы Уголовного кодекса РФ в главе о преступлениях против мира и безопасности человечества. Предлагается также ввести уголовную ответственность банков при наличии их вины за мошеннические действия третьих лиц при списании денежных средств с электронных средств платежа, а возможность использования технологии ИИ для совершения преступления рассматривать как квалифицирующий фактор уголовной ответственности.
Преступление, искусственный интеллект, уголовная ответственность, уголовное наказание, уголовный закон
Короткий адрес: https://sciup.org/147251648
IDR: 147251648 | УДК: 343.34 | DOI: 10.17072/2619-0648-2025-1-172-183
Criminal law mechanisms to counteract crimes perpetrated using artificial intelligence
The article examines both theoretical and practical aspects of the application of criminal law in relation to the use of modern technologies, such as artificial intelligence (AI), in the commission of criminal acts. The main trends in crimes committed with the use of AI are identified, and examples from emerging judicial practice are provided. Some criminal law measures to counter such crimes are suggested, including classifying technologies of deadly autonomous systems as weapons of mass destruction and placing their use against civilians and civilian objects under a criminal prohibition within a specific section of the Criminal Code of the Russian Federation, relating to crimes against peace and security. It is also proposed to impose criminal liability on legal entities represented by banks in case of fraudulent actions committed by third parties while debiting funds from electronic payment systems. The possibility of using AI technology to commit a crime is being considered as a qualifying factor for criminal liability.
Текст научной статьи Уголовно-правовые меры борьбы с преступлениями, совершаемыми с использованием технологий искусственного интеллекта
С тратегия национальной безопасности России предусматривает эффективное отстаивание ее национальных интересов, то есть удовлетворение бесспорной потребности личности, общества и государства в защите от внешних и внутренних угроз1. Только при должной защите можно говорить о реализации конституционных прав и свобод граждан, достойном качестве и уровне их жизни, гражданском мире и согласии в стране, сохранении ее суверенитета, независимости и государственной целостности.
За последние два года отчетливо проявилась новая внешняя угроза – беспилотные летательные аппараты (дроны), несущие на себе боеприпасы и используемые против мирного населения нашей страны и гражданской
ЩЕПЕТИЛЬНИКОВ В. Н. ___________________________________________________________ инфраструктуры. Как отмечают ученые Международного исламского университета Малайзии Ф. М. Хасан и Н. Д. Осман, в настоящее время многие страны стремятся к использованию так называемого автономного оружия на основе искусственного интеллекта, которое после активации может самостоятельно, без участия человека-оператора, выбирать и поражать цели2. С учетом скорости действия таких автономных систем вооружения контроль со стороны человека становится невозможным. Отметим, что у технологии ИИ есть как свои сторонники, так и противники.
Еще в 2010 году на 65-й сессии Генеральной Ассамблеи ООН была поднята проблема автономных вооружений. В 2023 году комитет Генассамблеи впервые принял проект резолюции по смертоносным автономным системам вооружений (САС). Россия данный проект не поддержала3. В итоге получилось кривое зеркало: государства, подписавшие в 2023 году проект резолюции, призывающей остановить «роботов-убийц», в том числе Франция, Германия, США и Великобритания, сами делают всё для того, чтобы продолжать сегодня накачивать Украину различными видами вооружения, включая беспилотники.
По справедливому замечанию Министерства иностранных дел РФ, подобные документы излишни, поскольку существующих международных правовых инструментов достаточно для регулирования вооружений с элементами автономности и ИИ. В то же время указанный документ однобоко освещает результаты деятельности Группы правительственных экспертов ООН, не отражая должным образом одиннадцать руководящих принципов в отношении автономных систем вооружений; кроме того, в нем проигнорирована возможность использования указанных систем вооружений для обеспечения законных оборонных интересов государств. Позиция внешнеполитического ведомства России сводится к тому, что данные средства играют важную роль при решении задач обороны, борьбы с террористической угрозой и минной опасностью.
Вместе с тем Россия не исключает сохранения контроля человека над любой техникой, в том числе для обеспечения выполнения действующих норм международного права. А выполнять есть что. Например, статья 49 Женевской конвенции об улучшении участи раненых и больных в действующих армиях от
12 августа 1949 г. предусматривает, что «Высокие Договаривающиеся Стороны берут на себя обязательство ввести в действие законодательство, необходимое для обеспечения эффективных уголовных наказаний (здесь и далее в цитатах курсив мой. – Авт. ) для лиц, совершивших или приказавших совершить те или иные серьезные нарушения настоящей Конвенции... Каждая Высокая Договаривающая Сторона обязуется разыскивать лиц, обвиняемых в том, что они совершили или приказали совершить то или иное из упомянутых серьезных нарушений, и, каково бы ни было их гражданство, предавать их своему суду»4. Статья 50 вышеназванной Конвенции к серьезным нарушениям относит действия, направленные «против лиц или имущества, пользующихся покровительством настоящей Конвенции: преднамеренное убийство, пытки и бесчеловечное обращение, включая биологические эксперименты, преднамеренное причинение тяжелых страданий или серьезного увечья, нанесение ущерба здоровью, незаконное, произвольное и проводимое в большом масштабе разрушение и присвоение имущества, не вызываемые военной необходимостью». Неоднократные террористические атаки в Белгороде, Курске, Брянске, других городах и регионах России, по нашему мнению, являются фактами именно таких нарушений.
Действующий Уголовный кодекс Российской Федерации5 (далее – УК РФ) содержит статьи 355 и 356, предусматривающие уголовную ответственность за разработку, производство, накопление, приобретение или сбыт химического, биологического, токсинного, а также другого вида оружия массового поражения , запрещенного международным договором Российской Федерации, а также за применение запрещенных средств и методов ведения войны. Полагаем, что технологии САС с ИИ следует отнести именно к такому виду оружия, поставив под уголовный запрет их применение против гражданских объектов и мирного населения в рамках специальной нормы УК РФ в главе 34 «Преступления против мира и безопасности человечества».
Другим бичом современности стало мошенничество с использованием электронных средств платежа. Не так давно в средствах массовой информации прошло сообщение со ссылкой на пресс-службу Банка России, что злоумышленники начали взламывать аккаунты пользователей в популярных мессен-
ЩЕПЕТИЛЬНИКОВ В. Н. ___________________________________________________________ джерах и скачивать оттуда голосовые сообщения граждан, с тем чтобы в дальнейшем, используя нейросеть, фабриковать новые сообщения и таким образом вымогать деньги у граждан. ИИ, обработав даже секундные речи, способен создать убедительный дипфейк, качественно воспроизведя интонацию и тембр человека. Эксперты прогнозируют даже использование видеозвонков с одновременным синтезом речи и изображения звонящего6. В такого рода ситуациях технология ИИ используется как способ совершения преступления.
В собственной практике суд отмечает, что «ответственность банка за совершение третьими лицами операций по банковской карте клиента с использованием персональных средств доступа не предусмотрена ни договором, ни нормами действующего законодательства»7. Очевидно, что такие нормы необходимо предусмотреть в уголовном законе. Это, кстати, еще один аргумент в пользу давнего спора о необходимости признания субъектом уголовной ответственности юридических лиц, в данном случае банков. При этом вызывает категорическое несогласие позиция суда в указанном деле, согласно которой «не имеет существенного значения, сама ли истица использовала указанные сведения для совершения операций по переводу денежных средств или сообщила информацию (умышленно или по неосторожности) третьим лицам». Извините, умысел и неосторожность в таком случае – это две большие разницы. Умысел может говорить только о соучастии в преступлении, а неосторожность граждан, клиентов банков, как раз об изощренности злоумышленников.
Еще один пример. В обычном магазине под предлогом покупки преступник выбирает товар. Сообщает продавцу о своем намерении приобрести его. Получив от продавца информацию о телефонном номере с привязанной банковской картой, на счет которой необходимо перевести денежные средства, преступник путем обмена мгновенными сообщениями в диалоге с ботом, установленным в качестве приложения на принадлежащем ему сотовом телефоне, формирует поддельный электронный чек по операции о переводе денежных средств. Далее он демонстрирует продавцу отобразившийся на экране автоматически сформированный поддельный чек и таким образом убеждает его в осуществлении оплаты приобретенного товара. В последующем он
___________________________________________________ УГОЛОВНО-ПРАВОВЫЕ НАУКИ распоряжается похищенными товарно-материальными ценностями по своему усмотрению.
Конечно, мошенничество остается мошенничеством независимо от способа его совершения. В этой связи представляется излишним плодить новые «примы» к уже имеющимся в ряду статей о мошенничестве. Целесообразнее подумать о таком наказании, которое стало бы соразмерным причиненному вреду и обеспечило цель общей превенции. Например, штраф, кратный ущербу, а также принудительные работы на благо государства, причем с постановкой конкретных законных интеллектуальных IT-задач, от успешного решения которых зависел бы срок погашения (снятия) судимости. Такой подход, на наш взгляд, является разумным для борьбы с интеллектуальными преступлениями.
Среди коллег есть мнение, что усложнение уголовного закона, регулирующего отношения в связи с защитой прав по поиску, получению, передаче, производству и распространению информации, при применении информационных технологий требует введения более общего по сравнению с компьютерной информацией понятия «цифровая информация». Под ней предлагается понимать «все многообразие сведений, обращающихся и обрабатываемых в информационно-телекоммуникационных устройствах, их системах и сетях, в том числе при помощи искусственного интеллекта. При этом преступлением в сфере обращения цифровой информации предлагается считать предусмотренное уголовным законом виновно совершенное общественно опасное деяние, направленное на нарушение конфиденциальности, целостности, достоверности и доступности охраняемой законом цифровой информации»8. Сходную точку зрения, правда в контексте электронной информации, мы выдвигали в 2006 году в своем исследовании, однако законодатель, как показало время, пока не пошел по данному пути9.
Вместе с тем представляется спорной позиция по переходу правосудия в России на так называемую «матрицу цифрового правосудия», когда роль человека в принятии решения по уголовному делу сведется к минимуму, когда
ЩЕПЕТИЛЬНИКОВ В. Н. ___________________________________________________________ в судьях исчезнет необходимость, а решение будет приниматься по усмотрению робота с искусственным интеллектом10.
Еще одной проблемой стало применение технологий ИИ в преступной деятельности по сбыту наркотических веществ (ст. 228.1 УК РФ). Преступники организуют интернет-магазины, а с помощью программ мгновенного обмена сообщениями (мессенджеров) создают аккаунты – так называемые чат-боты по продаже наркотических средств в круглосуточном режиме, где размещают информацию о поиске лиц, готовых войти в преступную группу, об ассортименте сбываемых наркотических средств и их стоимости, о номерах счетов для оплаты, статусе «заказов», об отзывах потребителей, которым осуществлялся сбыт наркотических средств организованной группой. С целью рекламы своей преступной деятельности информацию об интернет-магазинах, о местах и способах приобретения наркотических средств размещают среди лиц, употребляющих наркотические средства, и их распространителей. Подобные «магазины» создаются при помощи специальных сайтов, и при регистрации на них создают «бота» (искусственный интеллект, отвечающий за прием платежей и выдачу адресов) и интернет-сайт автоматических продаж наркотических средств, зайти на который возможно только через определенную сеть. В последующем, используя данные для входа в панель управления «ботом» и сайтом, через приложение оператор добавляет купленные кошельки в базу данных «бота» и сайта, на которые поступают платежи за продажу наркотических средств. Полученные денежные средства распределяются между соучастниками преступных групп11. К сожалению, такой способ совершения преступления стал распространенным явлением современной действительности.
Технологическая составляющая, как всегда, опережает правовую составляющую, поскольку право возникает только как реакция государства на возникшие потребности общества и становится регулятором постфактум. Вот и в случае с искусственным интеллектом государственный регулятор – глава 28 УК РФ – уже не охватывает всех особенностей преступных деяний, ставших возможными с появлением данных технологий12.
Есть и другая точка зрения относительно роли ИИ при совершении подобных преступных деяний. Так, в приговоре Оренбургского областного суда указано, что «любой “бот” (сокращенно от “робот”) – это специальная программа, выполняющая разные задачи и создающаяся человеком с определенной целью. Между тем анализ переписки подсудимых, зафиксированной в их телефонах, свидетельствует о том, что респонденты подсудимых в Интернете мобильно реагировали на поступающие сообщения, выдавая ответную информацию в режиме реального времени, что исключает общение с искусственным интеллектом »13 . Таким образом, здесь отрицается возможность рассмотрения технологии ИИ в качестве «перспективного» субъекта преступления. Подобные рассуждения можно встретить и у других авторов14.
Исходя из признаков искусственного интеллекта15, которыми в специальной литературе наделяют данную технологию, важно отметить, что в любом случае это порождение в первую очередь интеллектуальной деятельности человека, за которое должен отвечать сам человек.
Со стороны подсудимых даже звучат разъяснения (своего рода «ликбез») о том, что система-бот не является физическим лицом, а обладает искусственным интеллектом. Интернет-магазином управляет система-бот, которая не может быть организатором преступления, поскольку лишь выдает адреса с закладками в произвольном порядке по принципу лотереи16. Или, наоборот, все преподносится так, чтобы исключить субъекта соучастия как субъекта уголовной ответственности. Например, преступник вступает в переписку с лицами под каким-нибудь «ником» посредством социальных сетей – якобы таким образом данное лицо является искусственным интеллектом, неодушевленным предметом. Но подобные доводы о невозможности вступления в предварительный сговор с «искусственным разумом» суд находит надуманными, так как договоренности на совершение преступления достигаются именно с физическим лицом, использующим «ник» на сайте, что подтверждается перепиской, имеющейся в телефоне подсудимого. При этом суд подчеркивает, что неустановление в ходе предварительного следствия конкретного лица,
ЩЕПЕТИЛЬНИКОВ В. Н. ___________________________________________________________ использующего конкретный «ник», не опровергает вывод суда о том, что злоумышленник действовал именно группой лиц по предварительному сговору17.
Считаем возможным такие средства совершения преступления отнести к обстоятельствам, представляющим повышенную общественную опасность для охраняемых уголовным законом интересов личности, общества, государства, а потому отягчающим ответственность, и учитывать при назначении уголовного наказания. Представляется допустимым вернуть и применять высшую меру наказания – смертную казнь – за незаконные производство, сбыт или пересылку наркотических средств, психотропных веществ или их аналогов, ибо это одна из основных угроз национальной безопасности страны и такое зло нужно пресекать на корню, иначе его не побороть.
При изучении мнений коллег по данной теме становится очевидным, что все мы говорим об одном и том же, но с разной степенью конкретизации. Если мы признаём, что «высокие технологии могут быть использованы не только для совершения таких преступлений против личности, как убийство, причинение вреда здоровью человека, нарушение неприкосновенности частной жизни и неприкосновенности жилища, но и для посягательств против общественной безопасности, совершения преступлений против мира и безопасности человечества», что «существует также недооцененная опасность использования робототехники террористами и экстремистами»18, то стоит ли придумывать новые статьи уголовного закона? Думается, проблема лишь в том, чтобы понять следующее: насколько использование технологий искусственного интеллекта повышает характер и степень общественной опасности совершаемых деяний и каковы могут быть последствия от преступного применения таких комплексных решений? И тогда со всей очевидностью напрашивается вывод о том, что применение технологий ИИ возможно рассмотреть как квалифицирующий признак, как в свое время было сделано применительно к информационнотелекоммуникационной сети Интернет, а также как обстоятельство, отягчающее уголовную ответственность.
Следует добавить, что, когда в 1996 году принимался УК РФ, еще не было понятия искусственного интеллекта, но уже появилась глава 28 о преступлениях в сфере компьютерной информации. Понадобилось двадцать шесть лет, чтобы родилось соответствующее постановление Пленума Верховного Суда РФ19, разъяснившее в целях единообразного правоприменения отдельные термины и положения норм об уголовной ответственности за киберпреступления. Поэтому абсолютно правы коллеги, утверждающие, что «преступления в отношении информации должны квалифицироваться как компьютерные вне зависимости от способа воздействия: механического, магнитного или программного. Рассматривать же последствия следует с точки зрения влияния на информационную систему в целом. При квалификации компьютерных преступлений не следует использовать в качестве конститутивных признаки, имеющие узкотехнологическую специфику. Технологические понятия не всегда имеют однозначное соответствие общепринятым терминам. Кроме того, они меняются со временем, что требует постоянной актуализации законодательной базы. Перечень последствий может быть открытым, а их перечисление должно иметь лишь ориентирующий характер»20.
Интересной и аргументированной представляется позиция С. Л. Нуделя, согласно которой уголовная ответственность за наступление общественно опасных последствий применения искусственного интеллекта может быть реализована в рамках ответственности за вред, причиненный источником повышенной опасности, о чем мы уже упоминали выше. Исследователем делается справедливый вывод о неизбежности разработки концепции новой уголовной политики: «С учетом того что отмеченные выше дефекты в области уголовноправового регулирования обеспечения национальной безопасности имеют системный характер, взаимосвязаны и затрагивают не отдельные правовые институты, а уголовное право в целом, внесение корректирующих изменений в УК РФ представляется недостаточным и вполне вероятным итогом видится подготовка проекта нового Уголовного кодекса»21.
Теракт, вандализм, приведение в негодность объектов жизнеобеспечения, незаконное проникновение на охраняемые объекты, хищение и многое другое могут быть осуществлены с применением технологии ИИ. В этой связи среди коллег сложилось мнение о необходимости законодательно проработать вопрос «об уголовной ответственности за незаконный оборот робототехники с искусственным интеллектом; грубое нарушение правил эксплуатации роботов, повлекшее причинение вреда жизни, здоровью человека или крупного ущерба»22. Невольно вспоминается рассказ Джанни Родари «Робот, которому захотелось спать»23, где домашнего робота, а действие происходит в Риме в 2222 году, приговорили к двум неделям тюрьмы за то, что ему удалось заснуть как обычному человеку, а потом властям пришлось договариваться с роботами. На дворе только 2024-й, а мы уже очень близки к тому, о чем писатель поведал детям в шутливой форме в 1967-м.