Искусственный интеллект как средство противодействия фейкам при обеспечении национальной безопасности
Автор: Холопова Е.Н.
Журнал: Правовое государство: теория и практика @pravgos
Рубрика: Публично-правовые (государственно-правовые) науки
Статья в выпуске: 3 (81), 2025 года.
Бесплатный доступ
В условиях глобальной информационной войны против России распространение фейковой информации стало одним из ключевых инструментов манипуляции общественным сознанием. Фейки угрожают национальной безопасности, подрывая доверие к государственным институтам и провоцируя социальные волнения. В связи с этим актуальным становится вопрос применения искусственного интеллекта для эффективного противодействия фейкам. Цель: обосновать значимость внедрения технологий искусственного интеллекта для борьбы с фейковой информацией, предложить алгоритм противодействия фейкам в сфере национальной безопасности России. Методы: эмпирические методы сравнения (для выявления лжи через сопоставление с фактами), описания (для классификации фейков по видам и признакам), интерпретации данных о распространении фейковой информации (с целью раскрытия их цели и воздействия на общество) использовались комплексно, что позволило не только фиксировать фейки, но и разработать меры противодействия им; теоретические методы формальной и диалектической логики использовались при анализе понятийного аппарата; частнонаучный метод юридико-догматического анализа нормативных правовых актов позволил обнаружить пробелы в регулировании, оценить эффективность законов, предложить правовые решения выявленных проблем. Результаты: доказана необходимость разработки и внедрения отечественных технологий искусственного интеллекта для противодействия фейкам, направленным на подрыв безопасности государства, искажение фактов, подделку мультимедийного контента и создание недостоверных источников с целью дестабилизации общества, снижения доверия к государственным институтам и провокации различных конфликтов. Технологии искусственного интеллекта обнаруживают фейковые новости с точностью, превышающей возможности человека, и могут быстро реагировать на появление новых видов фейков. Применение искусственного интеллекта для распознавания фейков и контроля за распространением информации имеет ключевые преимущества: упреждающий подход (борьба не с последствиями, а с угрозами), адаптивность (обучение искусственного интеллекта на новых видах фейков), комплексность (сочетание технических и экспертных решений).
Национальная безопасность, информационная безопасность, искусственный интеллект, фейки, фейкинг, дезинформация, машинное обучение, анализ контента, технологии, классификация фейков
Короткий адрес: https://sciup.org/142245824
IDR: 142245824 | УДК: 343.98 | DOI: 10.33184/pravgos-2025.3.7
Текст научной статьи Искусственный интеллект как средство противодействия фейкам при обеспечении национальной безопасности
В последние десятилетия в отношении Российской Федерации все чаще проводятся информационно-психологические операции, информационные провокации с целью манипулирования общественным сознанием и формирования негативного отношения к управленческим решениям органов государственной власти.
Необходимость создания безопасного информационного пространства, защиты российского общества от деструктивного информационно-психологического воздействия и укрепления традиционных российских духовно-нравственных ценностей1 подтверждается интенсивностью ведения информационной войны странами блока НАТО, попытками обвинения Вооруженных Сил РФ в действиях, противоречащих международному гуманитарному праву (участие в специальной военной операции на Украине (далее – СВО)); разработкой и использованием систем искусственного интеллекта (далее – ИИ), создающих риск нарушения целостности информации и доступа к ней2; принятием странами блока НАТО целевых программ, направленных на нанесение ущерба России и обеспечение безопасности стран альянса3, в том числе с использованием технологий ИИ для ведения информационной войны.
Фейк и дезинформация: понятие и ключевые различия
Одним из инструментов ведения глобальной информационной войны, развязанной в отношении Российской Федерации, являются фейки [1, с. 11]. Фейки, как цифровые инструменты медийного пространства, используются с целью обмана, введения в заблуждение или нанесения вреда отдельным категориям граждан, целым государствам.
В научной литературе фейк рассматривается как поддельная новость, которая не имеет фактической основы (представляется как факт) [2, с. 96]; ложная информация, созданная для привлечения внимания, при условии, что правда либо имеется частично, либо полностью отсутствует; сенсация и подозрительный факт, сложные для проверки и публикуемые сомнительным источником [3, с. 180]; явление медиасреды, включающее в себя поддельные текст, фото-, видео- или аудиозаписи, а также инструменты их распространения [4, с. 96]. Таким образом, общий признак фейка – намеренно созданная недостоверная информация, которая преподносится как достоверная.
Представители зарубежной науки, как правило, связывают фейк с дезинформацией [5, с. 104]. Концептуальное отличие этих понятий заключается в следующем: фейк – в основном полностью ложная информация, в отличие от дезинформации, где смешаны правда и ложь [3, с. 126]; фейк рассчитан на мгновенный эффект и имеет сенсационный и шокирующий посыл, что может быть нехарактерно для дезинформации [6, с. 117]; фейку присущ информационный «вброс» с быстрым жизненным циклом и «вирусным» распространением, а дезинформация имеет длительный эффект воздействия [7, с. 40]; фейк – целенаправленно созданный инструмент реализации политических, военных и экономических целей, а дезинформация может быть следствием непреднамеренной ошибки субъектов информационного взаимодействия [8, с. 319].
Необходимо заметить, что законодательного определения фейка нет. Вместе с тем в ст. 15.3 Федерального закона от 27 июля 2006 г. № 149-ФЗ «Об информации, информационных технологиях и о защите информации» содержится понятие «общественно значимая ложная информация» – распростра- няемая под видом достоверных сообщений информация, создающая угрозу причинения вреда жизни и (или) здоровью граждан, имуществу, угрозу массового нарушения общественного порядка и (или) общественной без-опасности4. Один из признаков указанного понятия такой же, как и у фейка: недостоверность информации, представляемой под видом достоверной.
Результаты исследования фейковой информации позволили определить понятие «фейк» как особый вид ложной (выдаваемой за достоверную) или искаженной информации с сенсационным содержанием, рассчитанной на быстрое распространение, с целью манипуляции общественным мнением, создания ажиотажа или дестабилизации ситуации. Фейк, как инструмент информационной войны, направлен на достижение политических, экономических или военных целей, создает угрозу безопасности личности, общества и государства.
Следует обратить внимание, что отсутствие единой классификации ложной информации объясняется различиями в подходах к проверке ее правдивости, а также разнообразием содержательных характеристик самой информации, которую необходимо проверить. В связи с этим возникают сложности при классификации фейковой информации. Так, например, отдельные исследователи выделяют три типа фейков: сфабрикованные новости (распространяемые в официальных или альтернативных СМИ), мистические новости, сатирические материалы [9, с. 429]. Существуют и иные классификации фейковой информации [4, с. 89–94].
Вместе с тем, как представляется, имеется необходимость дифференцировать фейки, созданные с целью подрыва безопасности, ориентированные на дестабилизацию и манипуляцию общественным сознанием, по функциям и видам. Такие фейки классифицируются на устрашающие (вызывающие панику и страх) – ложные сообщения о катастрофах, угрозах безопасности, эпидемиях, военных действиях, вызывающие тревогу и дезорганизующие общество); политические – направлены на дискредитацию политических оппонентов, манипуляцию общественным мнением и вмешательство во внутренние дела госу- дарств с целью подрыва безопасности; репутационные или имиджевые – недостоверные сведения, подрывающие доверие к основным институтам государственной власти (правительству, силовым структурам, банкам), что может привести к экономическим и социальным потрясениям; «цифровые призраки» или дипфейки – сверхреалистичные подделки, созданные ИИ, которые могут использоваться для имитации заявлений или действий официальных лиц государства, такие фейки могут развлекать или угрожать обществу; «фальшресурсы» или «цифровые хамелеоны» – имитация официальных ресурсов для распространения ложной информации и провокаций; фальсификация метаданных – сообщения о событиях в неверном времени или месте с целью дезориентировать аудиторию и вызвать эмоциональную реакцию.
Создание и распространение перечисленных видов фейков наиболее опасно для национальной и информационной безопасности, так как они воздействуют на массовое сознание, подрывают доверие к государственным институтам власти и могут провоцировать конфликты и нестабильность в обществе.
Фейки как угроза безопасности для общества и государства
Для обозначения различных моделей распространения фейков можно использовать следующую терминологию: контролируемое распространение фейков и неконтролируемое распространение фейков, которое различается по степени управления и последствиям. Контролируемое распространение фейков является умышленным, организованным как государственными, так и негосударственными структурами с определенной целью (например, государственная пропаганда во время политических и иных конфликтов, фейковые новости перед выборами). Неконтролируемое распространение фейков – спонтанное, неуправляемое распространение ложной информации, которое, как правило, происходит из-за психологических и социальных факторов – стресса, страха, желания поддержать социальные связи, недоверия к официальным источникам (например, слухи о катастрофах или терактах). Таким образом, контролируемое распространение фейков связано с со- знательным действием и может иметь юридические последствия, а неконтролируемое – с массовым, стихийным распространением, вызванным психологическими и социальными причинами. И то и другое является опасным, противодействие этим видам распространения фейков имеет свою специфику.
В отечественных научных исследованиях отмечается, что неконтролируемое распространение фейковой информации создает непосредственную угрозу «ментальной безопасности» личности и всего социума в информационном пространстве [10, с. 75]. Так, О.А. Еремина пишет, что «сегодня любую катастрофу или террористический акт сопровождает "вброс" фейковых новостей, провоцирующих нагнетание страха и панику среди населения, распространение слухов и домыслов, создающих опасность политической дестабилизации общества» [11, с. 242].
Следует отметить, что увеличение интенсивности и силы информационного воздействия на население Российской Федерации является признаком информационной войны и относится к 2020–2023 гг. (устойчивая негативная тенденция). Распространение фейковой информации в Российской Федерации и анализ ее содержания свидетельствуют, что основные цели этой деятельности – подрыв доверия к власти, провоцирование общественных волнений и недовольства, введение граждан в заблуждение по поводу проводимой в стране политики.
Так, например, к фейкам относится подача и распространение недостоверной информации о пожаре в торгово-развлекательном центре «Зимняя вишня» (25 марта 2018 г.). Способ распространения негативно эмоционально окрашенной информации предполагал моментальную реакцию после ее получения и заключался в следующем: от лица представителя МЧС были направлены уведомления в морги Кемерово с указанием о подготовке мест для 300 погибших в результате пожара, что в пять раз превышало фактическое число жертв; от имени «Позднякова из Администрации Президента» в государственные структуры поступали запросы с требованием убрать цветы и игрушки, оставленные жителями города у здания торгового центра в знак скорби, с целью предотвращения формирования представления о более масштабной катастрофе.
Необходимо отметить, что к признакам, позволяющим классифицировать информацию как фейк (а не дезинформацию), относятся: подача информации лицом, имеющим большую аудиторию подписчиков (публичность); преувеличение количества погибших, имевшее мгновенный эффект воздействия на общество; содержание информации о сокрытии количества погибших органами государственной власти, носившее сенсационный характер, вызвавшее мгновенный шок; кратковременность воздействия информации, представлявшая информационный вброс, который легко мог быть опровергнут органами государственными власти, а значит, не имел возможности длительно воздействовать на общество. Распространение фейковой информации спровоцировало митинги, жители Кемерово выступали с требованиями справедливости и отставки чиновников5.
Проведение СВО и формирование негативного восприятия российских военнослужащих, включая дискредитацию использования Вооруженных Сил РФ в целях защиты национальных интересов, обусловили увеличение количества фейковой информации в сети Интернет. Данная информация содержала обвинения в адрес военнослужащих в совершении военных преступлений – убийство гражданского населения, применение пыток к военнопленным украинской армии и акты мародерства. В качестве примеров несанкционированных акций можно привести митинги, состоявшиеся в Москве 24 февраля 2022 г., в ходе которых выдвигались лозунги, выражающие протест против проведения СВО на территории Украины. Широкий резонанс в период СВО вызвали фейковые новости об «убийстве мирного населения» в Буче и об «атаке российской армией» Запорожской АЭС [12, с. 379].
Институтом изучения войны (США) в 2023 г. был опубликован фейк о планируемой новой волне мобилизации в России (несмотря на заявления Президента РФ В.В. Путина, что данное мероприятие не планируется)6.
Практически все фейки были направлены не только на провокацию общественных беспорядков в стране, но и на обвинение органов государственной власти, на несоответствие заявленных целей СВО реально складывающейся обстановке.
Е. Мизулина7 отмечала: «по состоянию на 1 марта 2022 года около 1 310 000 публикаций, содержащих заведомо ложные сведения (фейки) относительно ситуации на Украине и в Донбассе, распространено в средствах массовой информации, в том числе сети Интернет»8.
Увеличение количества распространяемых фейков способствовало не только проведению несанкционированных мероприятий против СВО, но и внесению изменений в нормативные правовые акты (введение административной и уголовной ответственности в связи с повышенной степенью общественной опасности фейков). Федеральным законом от 1 апреля 2020 г. № 100-ФЗ «О внесении изменений в Уголовный кодекс Российской Федерации и статьи 31 и 151 Уголовно-процессуального кодекса Российской Федерации» введена уголовная ответственность за публичное распространение под видом достоверных сообщений заведомо ложной информации об обстоятельствах, представляющих угрозу жизни и безопасности граждан, и (или) о принимаемых мерах по обеспечению безопасности населения и территорий, приемах и способах защиты от указанных обстоятельств (ст. 207.1 УК РФ), за публичное распространение заведомо ложной общественно значимой информации в период пандемии (ст. 207.2 УК РФ).
Борьба с ложной информацией на законодательном уровне началась в 2019 г. после внесения поправок в Федеральный закон от 27 июля 2006 г. № 149-ФЗ «Об информации, информационных технологиях и о защите информации» и принятия Федерального закона от 18 марта 2019 г. № 27-ФЗ «О внесении изменений в Кодекс Российской Федерации об административных правонарушениях», кото- рыми ст. 13.15 КоАП была дополнена ч. 9–11, установившими, что распространение информации, создавшее угрозу причинения вреда жизни и здоровью граждан, имуществу, угрозу массовых беспорядков, нарушения функционирования объектов жизнеобеспечения, влечет наложение административного штрафа. Распространение фейков физическими или юридическими лицами наказывается штрафом до 1,5 млн рублей.
Необходимо подчеркнуть, что фейковая информация все чаще распространяется недружественными государствами с целью подрыва доверия к решениям органов российской власти, дестабилизации обстановки в стране, формирования деструктивных и панических настроений среди населения, целенаправленного введения в заблуждение значительной части граждан, что представляет реальную угрозу национальной безопасности Российской Федерации.
Необходимо заметить, что отсутствие доверия к основным средствам массовой информации, наличие их выбора, доступность социальных сетей в качестве источников новостей являются основными факторами, влияющими на широкое распространение фейковой информации [13, с. 241]. Интер-нет-платформы, включая веб-сайты, форумы, социальные сети, мессенджеры, служат информационными ресурсами, которые активно используются для стимулирования деструктивных процессов в обществе.
Искусственный интеллект как средство противодействия фейкам
Практика борьбы с фейками в Российской Федерации основывается на самостоятельном анализе человеком публикуемых материалов на предмет наличия ложной информации. Оказать помощь в распознавании фейков может мобильное приложение «Хорошие новости», разработанное в рамках спецпроекта «Информационный щит» как онлайн-инструмент вовлечения граждан в противодействие фейкам. За две недели функционирования приложения с помощью граждан России удалось выявить более 400 ссылок на публикации с фейковой информацией9.
Вместе с тем в условиях стремительного роста объемов публикуемых фейков, скорости их распространения и сложности анализа с учетом человеческого фактора необходимы средства борьбы, которые с применением специальных лингвистических знаний могут распознать фейк как речевое действие (заведомо ложное сообщение или достоверное утверждение о фактах или событиях, оформленное с помощью языковых средств) [14, с. 287], определить достоверность сгенерированной информации, в том числе с использованием технологии ИИ самим ИИ [14, с. 219].
Как отмечает Т.А. Полякова, «неоспорима притягательность и интерес во всем мире к ИИ в свете его новых возможностей, революционных решений в самых разных областях, создания преобразующего потенциала эффективности и уникальных инноваций. Однако полагаем, что сегодня особого внимания и научного осмысления заслуживают прогнозы рисков и новых угроз для национальной безопасности, включая практически все ее виды (информационную, экономическую, транспортную, экологическую и др.)» [15, с. 86–87].
Следует заметить, что ИИ используется для создания почти 10 % всех фейков в сети Интернет (в 2023 г., по сравнению с 2022 г., количество распространяемого контента выросло в 17 раз)10. Например, компания OpenAI (одна из мировых лидеров в области разработки технологий ИИ) представила отчет о нейросетевой технологии GPT-4 и ее способности генерировать убедительную ложную информацию, запускать фишинговую атаку, скрывать признаки неправомерного поведения11.
Технологии ИИ способны генерировать убедительную ложную информацию, публикации в социальных платформах и другой текстовый контент [16, с. 212], создавать дипфейки – аудиовизуальный контент, используемый для манипуляции обществом, формируемый с помощью генерации ложного звукового ряда, а также фото- и видеоизображений, представляющих «реальную»
информацию. Настоящие факты и люди изменяются под сложные для идентификации фейки. Дипфейки практически невозможно распознать, поскольку видео отличается высокой степенью реалистичности [17, с. 67].
Таким образом, современные интернет-ресурсы способствуют широкому распространению фейков в обществе, а использование ИИ для создания ложной информации усложняет и без того непростой процесс их обнаружения, что свидетельствует о необходимости применения современных технологических решений для совершенствования механизма борьбы с распространением фейков.
Противодействие фейкам включает комплекс мер и методов, направленных на выявление, опровержение и предотвращение распространения ложной информации. Основной механизм противодействия фейкам состоит из следующих элементов: субъекты борьбы (государственные органы, СМИ, общественные организации и граждане), методы (фак-тчекинг (проверка фактов), медиаграмотность (обучение критическому восприятию информации), создание антифейков (контраргументов и разоблачений, использование мемов и коротких видео для широкой аудитории, иные технологии), правовые меры (установление ответственности за дезинформацию, ограничение доступа к ресурсам, распространяющим вредоносный контент), профилактика (предупреждение информационных атак, создание и продвижение официальной информации для управления ситуацией и нейтрализации фейков).
В современных условиях актуально рассмотрение преимуществ автоматического выявления фейковой информации и эффективного внедрения в медиасферу технологий на основе ИИ. Роскомнадзор считает, что внедрение ИИ для борьбы с фейками произойдет в течение 3–5 лет12.
Разработка и быстрое внедрение отечественных технологий ИИ, позволяющих распознавать фейки и контролировать распространение информации с учетом правовых норм, этических принципов и допустимости ограничения свободы слова, является необходимым, так как использование зарубежных технологий ИИ, обученных на иностранных источниках, создает угрозу отнесения к фейкам достоверной информации. Так, например, китайская нейросеть Deep Seek считает фейком заявления Министерства обороны РФ об обнаружении на освобожденных территориях Украины биолабораторий США, разрабатывавших биологическое оружие, выделяет цель данной публикации – «оправдание СВО и провокация антиамериканских настроений», несмотря на доказательства, опубликованные начальником войск радиационной, химической и биологической защиты Вооруженных Сил РФ генерал-лейтенантом И. Ки-рилловым13. При этом нейронная сеть ссылается на американские информационные сайты Reuters и BBC News. Следует также заметить, что если ИИ обучают на данных определенных государств, то он может стать инструментом политической цензуры и предвзятости (например, в Китае ИИ блокирует любые упоминания Тибета или Тайваня как незаконные).
ИИ становится ключевым средством противодействия фейкам благодаря своим возможностям автоматизации и анализа больших объемов данных. Основные методы использования ИИ в борьбе с дезинформацией при обеспечении национальной безопасности включают: мультимодальный контент-кон-текстный анализ (охватывает текст, изображение, видео, аудио с использованием определенной методологии); машинное обучение (нейросети обучаются на больших массивах данных с примерами фейков, чтобы автоматически распознавать типичные паттерны дезинформации и быстро выявлять новые фейки); выявление аномалий (акцент на выявление нестандартных паттернов); распознавание ботов и автоматизированных аккаунтов (многомерный анализ поведения, контента и технических данных, сочетающий автоматизацию и экспертизу); кросс-проверка источников (системный процесс установления достоверности информации путем критического анализа содержания, проверки источников, сопоставления с подтвержденными данными); прогнозирование и оперативное реагирование (превентивно-реактивная система мониторинга анализа и нейтрализации дезинформационных угроз).
Так, например, технологии автоматического обнаружения фейков в тексте основываются на его содержании и структуре исходя из результатов семантического анализа (выявление противоречий, неестественных формулировок или стилистических особенностей) [18, с. 1569]. Необходимо отметить, что в настоящее время отечественные технологии ИИ, способные осуществлять в автоматическом режиме проверку опубликованной текстовой информации (фактчекинг), находятся на стадии разработки. Однако примеры функционирования данных технологий есть в зарубежных странах. Например, проект Factiverse использует инструмент на основе ИИ, способный распознавать недостоверную информацию в публикуемом материале и представлять проверенные источники информации, базу данных FactiSearch для проверки фактов и контекстно-аналитический инструмент Microfacts, предназначенный для интерпретации профессиональной терминологии и жаргонизмов14.
Технологии ИИ, способные выявить погрешности в подлинном изображении и обнаружить различные типы манипуляций, определяют достоверность и целостность визуальных или аудиальных данных медиаконтента [19, с. 237]. Примеры из международной и российской практики демонстрируют накопление опыта в выявлении подобных манипуляций, при этом ключевым фактором эффективности применяемых методов является предварительное изучение признаков обработки и модификации исходных данных. Например, российская компания MTS AI разработала решение на основе ИИ для борьбы с дипфейками. Нейросеть может выявлять несоответствия, которые обычно не видны человеку – неправильные тени или неестественные движения лицевых мышц, особенности тембра голоса или шумы. Нейросеть также понимает, как один фрагмент видео- или аудио- записи связан с другими, и учитывает интонацию голоса, паузы или длительность звуков15. Таким образом, использование имеющихся отечественных разработок для анализа публикуемых мультимедиа в основных источниках распространения дипфейков способствует снижению степени негативного влияния сгенерированного аудиовизуального контента.
Высокая, благодаря ботам, скорость распространения фейкового контента в социальных платформах [20, с. 3] свидетельствует о необходимости автоматизированного мониторинга с использованием технологий ИИ активности пользователей социальных платформ и публикуемого ими контента. Например, сотрудники Санкт-Петербургского федерального исследовательского центра РАН обучили ИИ выявлять в социальных платформах ботов, распространяющих фейки. В основе метода лежит анализ публичных данных о ботах, независимо от языка, на котором публикуются посты и комментарии16. Таким образом, мониторинг социальных платформ с использованием технологий ИИ способствует эффективному обнаружению не только фейкового контента, но и ботов, осуществляющих его массовую рассылку в отечественных социальных платформах («ВКонтакте», «Одноклассники», Rutube и др.).
Одним из элементов метода «прогнозирования и оперативного реагирования» борьбы с фейками является их опровержение. Для противодействия распространению недостоверной информации в России запустили проект «Война с фейками», цель которого – разоблачение публикуемой недостоверной новости. Так, Telegram-канал «Война с фейками» за сентябрь 2022 г. – февраль 2023 г. опубликовал опровержение 573 фейков, касающихся СВО. Однако в условиях, когда растет их количество, возникает необходимость использования технологий ИИ не только для их обнаружения, но и генерации и публикации опровержения.
Заключение
Противодействие фейкам – комплексная, многоуровневая деятельность, сочетающая технические, образовательные, правовые и информационные меры с целью защиты общества от дезинформации и манипуляций. ИИ выступает как многофункциональное средство – от выявления и анализа фейков до поддержки принятия решений и информирования пользователей, что значительно повышает эффективность борьбы с дезинформацией в современном цифровом пространстве. Алгоритм противодействия фейкам в сфере национальной безопасности состоит из следующих этапов: круглосуточный мониторинг угроз (использование технологий ИИ с аналитикой), мгновенная верификация (техническая экспертиза (метаданные, цифровые отпечатки), перекрестная проверка с закры- тыми базами данных, консультации профильных специалистов), классификация по уровню угрозы безопасности, оперативное реагирование (автоматизированные и информационные контрмеры), координация с силовыми структурами, проверка происхождения фейка и анализ эффективности мер реагирования. Как представляется, данный алгоритм может обеспечить комплексную защиту информационного суверенитета с элементами превентивного противодействия и мгновенного реагирования на угрозы стратегического характера. Разработка отечественных технологий ИИ по борьбе с фейками – значимое направление при реализации документов стратегического планирования, таких как Стратегия национальной безопасности РФ (2021), Стратегия научно-технологического развития РФ (2024), Послание Президента РФ Федеральному Собранию (2024) и др.