Жертвы преступлений интеллектуальных алгоритмов
Автор: Бегишев И.Р.
Журнал: Виктимология @victimologiy
Рубрика: Виктимологические аспекты преступности
Статья в выпуске: 3 т.12, 2025 года.
Бесплатный доступ
В настоящей статье проводится комплексное исследование виктимологических аспектов преступлений, совершаемых с использованием технологий искусственного интеллекта. На основе анализа современной научной литературы и эмпирических данных автор раскрывает специфику цифровой виктимизации, особенности криминогенного воздействия интеллектуальных алгоритмов и уязвимые категории населения, наиболее подверженные риску стать жертвами высокотехнологичных преступлений. В работе представлена авторская классификация и типология жертв преступлений, совершаемых с применением искусственного интеллекта, выявлены основные механизмы виктимизации и определены наиболее эффективные меры превентивного воздействия. Особое внимание уделяется новейшим формам преступных посягательств, связанных с технологиями дипфейков, алгоритмическим мошенничеством и кибервиктимизацией. На основе проведенного исследования сформулированы научно обоснованные рекомендации по совершенствованию системы виктимологической профилактики и защиты потенциальных жертв преступлений, совершаемых с использованием интеллектуальных алгоритмов.
Алгоритмическое мошенничество, виктимологическая профилактика, виктимология, жертва преступления, искусственный интеллект, цифровая безопасность, цифровая виктимизация
Короткий адрес: https://sciup.org/14133980
IDR: 14133980 | УДК: 343.988:004.8 | DOI: 10.47475/2411-0590-2025-12-3-319-329
Текст научной статьи Жертвы преступлений интеллектуальных алгоритмов
Современный этап развития общества характеризуется стремительной цифровизацией и внедрением технологий искусственного интеллекта во все сферы жизнедеятельности человека. Данные процессы, безусловно, открывают новые возможности для социального и экономического прогресса, однако одновременно создают благоприятные условия для появления новых форм преступной деятельности. По данным официальной статистики, за последний год количество преступлений, совершенных с использованием информационно-телекоммуникационных технологий или в сфере компьютерной информации возросло, а их раскрываемость составила чуть больше 22 %1. При этом объективная сторона данных преступлений зачастую характеризуется использованием интеллектуальных алгоритмов и нейросетевых технологий.
Актуальность исследования обусловлена тем, что традиционный виктимоло-гический инструментарий оказывается недостаточно эффективным при анализе преступлений, совершаемых с применением искусственного интеллекта. Это связано с тем, что процесс виктимизации в цифровой среде имеет свои особенности, а жертвы высокотехнологичных преступлений обладают специфическими характеристиками, отличными от жертв традиционных преступлений. Кроме того, следует отметить, что в отечественной криминологической науке виктимологические аспекты преступлений с использованием интеллектуальных алгоритмов исследованы недостаточно.
Целью настоящего исследования является комплексный анализ виктимологиче-ских характеристик жертв преступлений, совершаемых с использованием технологий искусственного интеллекта, и разработка научно обоснованных рекомендаций по совершенствованию системы виктимологи-ческой профилактики.
Для достижения указанной цели необходимо решить следующие задачи:
-
1) проанализировать современное состояние преступности, связанной с использованием искусственного интеллекта;
-
2) выявить специфические виктимоло-гические характеристики жертв высокотехнологичных преступлений;
-
3) разработать классификацию и типологию жертв преступлений, совершаемых с использованием интеллектуальных алгоритмов;
-
4) определить наиболее эффективные меры виктимологической профилактики в условиях цифровизации общества.
Материалы и методы
Методологическую основу исследования составляет диалектический подход к изуче- нию социально-правовых явлений, а также комплекс общенаучных и частнонаучных методов познания: формально-логический, системно-структурный, сравнительноправовой, статистический, метод экспертных оценок, контент-анализ и др.
Особое внимание в исследовании уделено методу криминологического моделирования, который позволил выявить закономерности процесса виктимизации в цифровой среде и построить прогностические модели развития ситуации.
Результаты исследования
Анализ современного состояния преступности, связанной с использованием искусственного интеллекта, позволил выявить основные тенденции и закономерности данного явления. Согласно данным специализированных исследований компании «Deep Instinct», 85 % кибератак в 2024 году были связаны с использованием технологий искусственного интеллекта 1. При этом наиболее распространенными видами преступлений, совершаемых с использованием интеллектуальных алгоритмов, являются: мошенничество (64,2 %), неправомерный доступ к компьютерной информации (17,5 %), нарушение авторских прав (8,3 %), клевета и распространение недостоверной информации с использованием технологий дипфейка (7,1 %), иные преступления (2,9 %)2.
По данным Министерства внутренних дел Российской Федерации, ущерб от преступлений в сфере информационных технологий только за первые семь месяцев 2024 года достиг 99 млрд рублей, а преступления в сфере кибермошенничества составили более 30 % от общего числа зарегистрированных преступлений 3. Анали- тическое агентство «Лаборатория Касперского» отмечает, что в первом полугодии 2024 года количество критичных киберинцидентов в России и странах СНГ выросло на 39 % по сравнению с аналогичным периодом предыдущего года 4. При этом в 10 % подобных инцидентов целью киберпреступников было не вымогательство, а целенаправленная диверсия для нанесения максимального ущерба жертве.
Особую опасность представляют преступления, связанные с технологиями дипфейка (Deepfake), которые позволяют создавать фальшивый аудио- и видеоконтент, практически неотличимый от реального. По данным специалистов в области кибербезопасности, в 2025 году прогнозируется десятикратный рост подобных атак5. Это связано с тем, что технологии дипфейка становятся все более доступными и простыми в использовании, а их эффективность существенно повышается благодаря развитию генеративных алгоритмов.
На основе проведенного исследования нами разработана классификация жертв преступлений, совершаемых с использованием интеллектуальных алгоритмов (см.: табл. 1).
Анализ полученных результатов позволяет выделить основные механизмы виктимизации в контексте преступлений, совершаемых с использованием искусственного интеллекта:
-
1. Информационно-технологический механизм, основанный на использовании уязвимостей информационных систем и недостаточной осведомленности пользователей о технологических аспектах функционирования искусственного интеллекта.
Таблица 1
[Table 1 —
— Классификация жертв преступлений, совершаемых с использованием искусственного интеллекта
Classification of victims of crimes committed using artifi cial intelligence]
Тип жертвы
Характеристика
Преобладающие виды преступлений
Факторы виктимизации
Неосведомленные жертвы
Лица с низким уровнем цифровой грамотности, не обладающие знаниями об особенностях функционирования искусственного интеллекта
Мошенничество, кража персональных данных
Незнание основных принципов цифровой безопасности, доверчивость, отсутствие критического мышления
Самоуверенные жертвы
Лица, имеющие определенные знания в области цифровых технологий, но переоценивающие свои возможности по обеспечению цифровой безопасности
Взлом учетных записей, кража цифровых активов
Излишняя самоуверенность, пренебрежение правилами цифровой гигиены
Публичные
жертвы
Политики, медийные персоны, лидеры общественного мнения
Дипфейк-преступления, распространение недостоверной информации
Высокая степень публичности, наличие большого количества цифрового контента с их изображениями
Случайные жертвы
Лица, ставшие жертвами преступлений в результате массовых атак, не направленных на конкретного человека
Фишинг, распространение вредоносного программного обеспечения
Отсутствие специфических факторов виктимности
Профессиональные жертвы
Лица, подвергающиеся преступным посягательствам в связи с их профессиональной деятельностью
Промышленный шпионаж, нарушение коммерческой (налоговой, банковской)тайны
Доступ к ценной информации, отсутствие надлежащих средств безопасности цифровой информации
-
2. Социально-психологический механизм, основанный на манипулировании сознанием потенциальных жертв с использованием социальной инженерии и психологических особенностей человеческого восприятия.
-
3. Институциональный механизм, связанный с недостаточным правовым регулированием технологий искусственного интеллекта и отсутствием эффективных механизмов защиты прав потерпевших.
Следует отметить, что традиционные методы виктимологической профилактики оказываются недостаточно эффективными в условиях цифровизации общества. В связи с этим возникает необходимость разработки новых подходов к предупреждению виктимизации в цифровой среде, учитывающих специфику преступлений, совершаемых с использованием искусственного интеллекта.
Развитие технологий искусственного интеллекта и их проникновение в различные сферы жизнедеятельности общества обусловило необходимость научной типологии жертв преступных посягательств, совершаемых с использованием интеллектуальных алгоритмов. Виктимологиче-ская типология в данном случае выступает не только как теоретический конструкт, но и как инструмент практического значения, позволяющий дифференцировать применяемые меры защиты и профилактики в зависимости от характера преступного воздействия. Опираясь на результаты научных исследований и анализ криминальных практик, представляется целесообразным предложить следующую типологию жертв преступлений, совершаемых с использованием интеллектуальных алгоритмов (см.: табл. 2).
Предложенная типология жертв преступлений с использованием интеллек-
Таблица 2 — Типология жертв преступлений, совершаемых с использованием искусственного интеллекта
[Table 2 — Typology of Victims of Crimes Committed Using Artificial Intelligence]
Обсуждение результатов исследования Прежде чем обратиться к виктимологиче-ским аспектам, необходимо определить понятие преступлений, совершаемых с использованием искусственного интеллекта. И. Н. Мосечкин отмечает, что «искусственный интеллект создает потенциальную возможность совершения противоправных деяний, обладающих высокой степенью общественной опасности» [10]. Автор подчеркивает, что в отличие от традиционных преступлений, деяния, совершаемые с использованием интеллектуальных алгоритмов, характеризуются особой латентностью и сложностью установления причинно-следственной связи между действиями преступника и наступившими общественно опасными последствиями.
В свою очередь Т. В. Пинкевич и Д. А. Конев акцентируют внимание на рисках использования искусственного интеллекта при совершении противоправных деяний, указывая на «существенный вред, наносимый отдельным лицам, обществу и государству» [12]. По их мнению, объективная сторона преступления в данном случае отличается специфическим способом совершения — использованием интеллектуальных алгоритмов в качестве орудия или средства совершения преступления.
В международном научном дискурсе широкое распространение получил термин «AI Crime» (преступления с использованием искусственного интеллекта). Т. Кинг и соавторы определяют данное понятие как «противоправные деяния, при совершении которых искусственный интеллект используется в качестве инструмента, способствующего совершению преступления» [9]. Исследователи подчеркивают междисциплинарный характер данного феномена, требующего комплексного анализа технологических, юридических и этических аспектов.
Виктимологическая характеристика жертв преступлений с использованием искусственного интеллекта имеет свою специфику [1, 3, 13]. Потерпевшие от таких преступлений зачастую демонстрируют особый тип виктимного поведения, обусловленный цифровой неграмотностью, чрезмерным доверием к технологиям или неспособностью критически оценивать информацию, генерируемую интеллектуальными алгоритмами.
И. Архипцев, А. Сарычев и А. Мотузов обращают внимание на растущую проблему использования технологий «дипфейк» (deepfake) для совершения преступлений, отмечая, что «жертвы мошенничества с использованием технологий дипфей-ка особенно уязвимы в силу сложности идентификации подделки» [2]. В криминогенной ситуации такого типа решающую роль играет виктимологический фактор — неспособность жертвы распознать манипуляции с аудиовизуальным контентом, созданным с помощью алгоритмов глубокого обучения.
Особого внимания заслуживает вик-тимологический аспект преступлений, связанных с психологическим манипулированием посредством интеллектуальных алгоритмов. Т. Кинг и соавторы отмечают, что «интеллектуальные алгоритмы могут психологически манипулировать пользователями, делая их уязвимыми для преступных действий» [9]. Данный феномен представляет собой новую форму виктимизации, когда алгоритмы, анализируя цифровой след пользователя, формируют таргетированный контент, эксплуатирующий психологические особенности потенциальной жертвы.
Д. Базарова отмечает, что «искусственный интеллект усиливает напряженность в области прав человека в уголовном правосудии» [4]. По мнению автора, алгоритмические системы принятия решений могут создавать ситуации вторичной виктимизации, когда жертва преступления вновь становится жертвой — уже системы правосудия, использующей предвзятые алгоритмы.
В научном сообществе ведется активная дискуссия о правовом статусе жертв преступлений, совершаемых с использованием искусственного интеллекта, и механизмах их защиты. З. И. Хисамова и И. Р. Бегишев подчеркивают необходимость «анализа уголовной ответственности за действия искусственного интеллекта» [8], акцентируя внимание на сложности определения субъекта ответственности в случаях, когда вред причиняется автономной системой искусственного интеллекта.
С другой стороны, Т. Блаут и соавторы рассматривают проблему с точки зрения криминологической превенции, предлагая «дифференцированный подход к различным типам преступлений с использованием искусственного интеллекта» [5]. Авторы настаивают на необходимости разработки специальных мер виктимологической профилактики, учитывающих особенности цифровой среды и специфику взаимодействия человека с интеллектуальными системами.
Особое внимание в научной дискуссии уделяется проблеме доказывания по делам о преступлениях, совершенных с использованием искусственного интеллекта. Дж. Контисса и Дж. Ласаньи отмечают, что «алгоритмические системы и системы искусственного интеллекта оказывают влияние на основные права и право на эффективные средства правовой защиты в уголовном судопроизводстве» [6]. По их мнению, процессуальное положение потерпевшего в таких делах осложняется технологической сложностью предмета доказывания и необходимостью специальных познаний для оценки криминогенной ситуации.
Э. Нерантци и Дж. Сартор предлагают принципиально новый подход, акцентируя внимание на том, что «в преступлениях, связанных с искусственным интеллектом, акцент смещается с вины на сдерживание» [11]. Авторы разрабатывают концепцию «парадигмы сдерживания искусственного интеллекта», вдохновленную экономической теорией, согласно которой эффективная защита жертв преступлений с использованием интеллектуальных алгоритмов возможна через создание системы стимулов и сдерживающих факторов для разработчиков и операторов систем искусственного интеллекта.
Виктимологическая профилактика преступлений с использованием искусственного интеллекта представляет собой комплекс мер, направленных на снижение виктимности потенциальных жертв и минимизацию рисков виктимизации в цифровой среде. А. Кафирвел и соавторы подчеркивают, что «осведомленность, технологии, этика и правоприменение предотвращают злоупотребление искусственным интеллектом» [7]. Авторы предлагают стратегию профилактики, основанную на повышении циф- ровой грамотности населения, внедрении технических средств защиты и укреплении этических стандартов разработки и использования интеллектуальных алгоритмов.
В контексте виктимологической профилактики особую значимость приобретает проблема информированного согласия пользователей на взаимодействие с системами искусственного интеллекта. А. Сау-хоулиду отмечает важность «презумпции невиновности в эпоху алгоритмов, больших данных и искусственного интеллекта» [14], указывая на необходимость обеспечения прозрачности алгоритмических решений и возможности оспаривания таких решений в случае нарушения прав граждан.
Результаты проведенного исследования соотносятся с основными тенденциями развития современной виктимологической науки и дополняют существующие теоретические концепции новыми данными и теоретическими обобщениями. Выявленные механизмы виктимизации в цифровой среде и разработанная классификация и типология жертв преступлений, совершаемых с использованием искусственного интеллекта, могут стать основой для создания эффективной системы виктимологической профилактики в условиях цифровизации общества.
Выводы
На основе проведенного исследования можно сформулировать следующие выводы:
-
1. Преступления, совершаемые с использованием технологий искусственного интеллекта, представляют собой качественно новое явление, требующее разработки специфического виктимологического инструментария для анализа и предупреждения.
-
2. Процесс виктимизации в цифровой среде имеет свои особенности, связанные с анонимностью, транснациональным характером преступлений и использованием интеллектуальных алгоритмов для автоматизации преступной деятельности.
-
3. Классификация и типология жертв преступлений, совершаемых с использова-
- нием искусственного интеллекта, должна учитывать не только традиционные вик-тимологические характеристики, но и уровень цифровой грамотности, степень вовлеченности в виртуальное пространство, особенности цифрового поведения пользователей.
-
4. Традиционные методы виктимологи-ческой профилактики оказываются недостаточно эффективными в условиях цифровизации общества. Необходима разработка комплексной системы мер, направленных на повышение цифровой грамотности населения, формирование культуры цифровой безопасности и создание эффективных механизмов защиты прав потерпевших в цифровой среде.
-
5. Особую опасность представляют преступления, связанные с технологиями дипфейка, которые позволяют создавать фальшивый аудио- и видеоконтент, практически неотличимый от реального. Такие преступления наносят серьезный ущерб не только конкретным лицам, но и подрывают доверие к цифровой информации в целом.
Заключение
Проведенное исследование показало, что развитие технологий искусственного интеллекта создает не только новые возможности для социального и экономического прогресса, но и порождает новые криминогенные факторы, способствующие виктимизации населения. В этих условиях традиционная виктимологическая парадигма нуждается в существенной трансформации и дополнении новыми теоретическими концепциями и методологическими подходами.
Исследование позволяет сделать вывод о формировании нового типа потерпевших — жертв преступлений, совершаемых с использованием интеллектуальных алгоритмов. Виктимологические характеристики таких жертв имеют существенную специфику, обусловленную особенностями цифровой среды и технологическими аспектами функционирования систем искусственного интеллекта.
Особую значимость приобретает проблема правового статуса потерпевших и механизмов защиты их прав в случаях причинения вреда автономными системами искусственного интеллекта. Решение данной проблемы требует междисциплинарного подхода, учитывающего технологические, правовые,этические и психологические аспекты взаимодействия человека с интеллектуальными алгоритмами.
Для эффективного противодействия преступлениям, совершаемым с использованием искусственного интеллекта, необходима разработка комплексной системы мер, включающей:
-
— правовое регулирование технологий искусственного интеллекта с учетом викти-мологических аспектов;
-
— развитие международного сотрудничества в сфере противодействия преступлениям, совершаемым с использованием искусственного интеллекта;
-
— разработку и внедрение программ повышения цифровой грамотности населения;
-
— создание эффективных механизмов защиты прав потерпевших в цифровой среде;
-
— разработку методологии исследования виктимизации в цифровой среде;
-
— создание типологии жертв преступлений с использованием искусственного интеллекта;
-
— формирование комплекса мер вик-тимологической профилактики, учитывающей специфику взаимодействия человека с интеллектуальными системами.
Особое внимание следует уделить развитию виктимологической науки в контексте цифровизации общества, в частности, созданию теоретической базы для анализа виктимологических аспектов преступлений, совершаемых с использованием искусственного интеллекта, разработке методологии виктимологических исследований в цифровой среде, подготовке специалистов в области цифровой виктимологии.
В условиях стремительного развития технологий искусственного интеллекта и увеличения масштабов их применения в различных сферах жизнедеятельности общества проблема защиты граждан от преступных посягательств с использованием интеллектуальных алгоритмов приобретает стратегическое значение для обеспечения национальной безопасности и устойчивого развития государства.
Таким образом, проблема жертв преступлений интеллектуальных алгоритмов требует комплексного подхода, объединяющего усилия представителей различных научных дисциплин и практических работников правоохранительных органов, специалистов в области цифровых технологий, цифровой безопасности и психологов.