Инкапсуляция деструктивного психологического воздействия на молодежь в социальных сетях посредством инструментов искусственного интеллекта
Автор: Гладкая А.А., Логинова Н.А., Савельев С.Н., Скрипкина М.А.
Журнал: Автономия личности @avtonomiya-lichnosti
Рубрика: Информационно-психологическая безопасность личности
Статья в выпуске: 2 (39), 2026 года.
Бесплатный доступ
В статье анализируется стратегия скрытия (инкапсуляции) деструктивного психологического воздействия на молодежь в соцсетях с применением искусственного интеллекта. На основе системного анализа разработана четырехэтапная модель данного процесса. Доказано, что тскусственный интеллект трансформирует информационно-психологические операции в гиперперсонализированный процесс, что требует новых подходов к безопасности. Для противодействия обоснована «симметричная» стратегия, сочетающая предиктивные AIсистемы с формированием «цифрового иммунитета» у молодежи.
Инкапсуляция деструктивного информационно-психологического воздействия, сбор персональных данных, информационное противоборство, молодежь, социальные сети, манипулятивные технологии, чат-ботызащитники
Короткий адрес: https://sciup.org/142247165
IDR: 142247165 | УДК: 32.019.51:004.8
Encapsulation of destructive psychological influence on youth in social media via artificial intelligence tools
The article analyzes the strategy of concealing (encapsulating) destructive psychological influence on youth in social media using AI. Based on a systematic analysis, a four-stage model of this process has been developed. It is proven that AI transforms information-psychological operations into a hyper-personalized process, necessitating new security approaches. To counter this, a «symmetrical» strategy is justified, combining predictive AI systems with building «digital immunity» in youth.
Текст научной статьи Инкапсуляция деструктивного психологического воздействия на молодежь в социальных сетях посредством инструментов искусственного интеллекта
ИНКАПСУЛЯЦИЯ ДЕСТРУКТИВНОГО ПСИХОЛОГИЧЕСКОГО ВОЗДЕЙСТВИЯ НА МОЛОДЕЖЬ В СОЦИАЛЬНЫХ СЕТЯХ
ПОСРЕДСТВОМ ИНСТРУМЕНТОВ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
ENCAPSULATION OF DESTRUCTIVE PSYCHOLOGICAL INFLUENCE ON YOUTH IN SOCIAL MEDIA VIA ARTIFICIAL INTELLIGENCE TOOLS
Гладкая Александра Александровна сотрудник Академия ФСО России г. Орёл, Россия
Gladkaya Alexandra Aleksandrovna staff members
Academy of the Federal Protective Service of Russia Orel, Russia
Логинова Наталья Александровна сотрудник Академия ФСО России г. Орёл, Россия
Loginova Natalia Aleksandrovna staff members
Academy of the Federal Protective Service of Russia Orel, Russia
Научный руководитель:
Савельев Сергей Николаевич кандидат технических наук, доцент сотрудник Академия ФСО России г. Орёл, Россия
Scientific Supervisor:
Savelyev Sergei Nikolaevich
Ph.D., associate professor, staff members
Academy of the Federal Protective Service of Russia Orel, Russia
Научный руководитель:
Скрипкина Марина Алексеевна кандидат педагогических наук, доцент Академия ФСО России г. Орёл, Россия
Scientific Supervisor: Skripkina Marina Alekseevna
Ph.D., associate professor staff members Academy of the Federal Protective Service of Russia Orel, Russia
В современных условиях в информационном пространстве против Российской Федерации противником интенсивно проводятся информационно-психологические операции (ИПО), основанные на злонамеренном использовании искусственного интеллекта (ИИ). Целями проводимых операций являются воздействия на все социальные группы, особенно на не имеющую жизненного опыта молодежь, а именно: создание обстановки страха перед нарастанием угроз; контроль общественного мнения и косвенное формирование решений в чью-либо пользу; цифровые диверсии (CNOS), направленные на проникновение, ослабление, дезорганизацию, нарушение или разрушение функционирования государства; политическое манипулирование сознанием людей; воздействие на психоэмоциональную составляющую жизни, дезориентация и деморализация общественности и вооруженных сил; установление информационного превосходства и др. [1].
В результате ИПО противник стремиться заставить российское общество уничтожить себя изнутри, сделав его неспособным сопротивляться, сдерживать или отклонять цели информационного воздействия на него. Таким образом, противник стремиться достигнуть следующего: увеличения поляризации взгля- дов в обществе, активизации оппозиционных движений и антиправительственных обсуждений, делегитимизации правительства, информационной изоляции отдельных групп и личностей, подрыва морального духа населения, разрушения нормативного образа жизни во всех сферах и др. [2].
Искусственный интеллект (ИИ) сегодня играет ключевую роль в развитии социальных сетей, он стал их неотъемлемой частью. ИИ помогает персонализировать контент, автоматизировать модерацию, улучшать пользовательский опыт и анализировать тренды. Однако вместе с этими возможностями приходят и серьезные вызовы - от угроз конфиденциальности до распространения дезинформации и манипуляции общественным мнением. Использование ИИ противником кардинально меняет масштаб и эффективность психологического воздействия, превращая его из кустарного ремесла в высокотехнологичную конвейерную систему.
Наиболее опасным является скрытое (инкапсулированное) психологическое воздействие контента социальных сетей. Общую идею инкапсуляции возможно сформулировать следующим образом - скрыть деструктивную идею внутри привлекательной для молодежи оболочки, чтобы обойти критическое восприятие и напрямую воздействовать на эмоции и подсознание. В качестве примеров такого воздействия можно привести следующие:
-
- маскировка радикальной идеологии: националистические идеи, зашифрованные в патриотические посты об истории или спорте; ненависть к женщинам (мизогиния), замаскированная под «мужские тренинги» и советы по пикапу;
-
- пропаганда девиантного поведения: романтизация депрессии и суицида в эстетичных «печальных» плейлистах и цитатах в картинках (эстетика «тихого дома» и подобные); пропаганда наркотиков и вейпинга через музыку и визуальный ряд, где они показаны как часть «крутого» и «раскрепощенного» стиля жизни;
-
- теории заговора: подача конспирологических идей в формате «документального расследования» или «интеллектуального анализа», что создает иллюзию глубины и осведомленности [3].
Установлены четыре основных этапа формирования скрытого воздействия (инкапсуляции) в информационно-психологических операциях против молодежи:
-
1. Этап сбора и обработки данных ИИ об объекте (социальной группе) воздействия в целях определения наиболее внушаемых и эмоционально нестабильных личностей, с которых начнется распространение («разведка», «прицеливание»). На данном этапе ИИ анализирует миллионы постов, чтобы найти группы, где молодые люди обсуждают свои проблемы: одиночество, неудачи в личной жизни, конфликты с родителями, отсутствие перспектив, а также определяет нарождающиеся тренды и хештеги, к которым можно «присоединиться» для продвижения своего нарратива. На основе лайков, репостов,
-
2. Этап создания контента и нарративов («создание средств доставки и поражения», «выбор привлекательной оболочки - капсулы»). ИИ генерирует контент, который будет использоваться в ИПО. В ходе данного этапа большие языковые модели (LLM) пишут убедительные посты, комментарии, статьи и сценарии для видео. Текст может быть подобран под конкретного пользователя, чей психологический портрет был составлен ранее на первом этапе. Например, для агрессивно настроенного юноши генерируется контент о «справедливом возмездии», а для девушки с заниженной самооценкой - о «секретах успеха», ведущих к деструктивному поведению. Затем создается мультимедиа контент средствами синтетического ИИ. Генеративные модели (DALL-E, Midjourney, Stable Diffusion) создают уникальные виральные мемы картинки, летсплеи, модные лайфстайлы, психологические лайфхаки, которые визуально привлекательны и идеально передают нужный посыл. Технологии Deepfake и синтеза речи используются для создания фальшивых видео с «авторитетами» - будь то популярный блогер, которого не существует, или реальный человек, говорящий то, чего он никогда не говорил. Это самый опасный этап инкапсуляции в результате которого формируется «капсула деструктивного контента», выполненная в профессиональной графике и содержащая убедительные формулировки.
-
3. Этап непосредственного воздействия на личность (группу) - координированного распространения деструктивного контента и эскалации («Вброс и атака»). На данном этапе ИИ осуществляет развертывание бот-сетей и сибил-аккаунтов, которые ведут себя как реальные люди: у них есть «биография», они постепенно «взрослеют», публикуют разный контент и вступают в дискуссии между собой. Эти аккаунты массово лайкают и комментируют целевые посты, «разогревая» их в алгоритмах рекомендаций соцсетей. Когда молодой человек видит, что «сотни таких же, как он» поддерживают деструктивную идею, его механизмы социального доказательства дают сбой, и он с большей вероятностью к ней присоединится (астротурфинг). Причем ИИ может тестировать тысячи вариантов подачи одной и той же деструктивной идеи, чтобы найти ту, которая вызывает наибольший отклик: одному пользователю идея будет подана через юмор, другому - через псевдонаучное объяснение, третьему - через историческую аналогию. Использование специальных кодовых слов, символов и сигналов, которые понятны только своей аудитории, но незаметны для внешних пользователей (например, определенные цифры, жесты, перевернутые
-
4. Этап оценки эффективности воздействия и коррекция воздействия. Это ключевой этап, который делает ИПО самообучающейся и чрезвычайно опасной. На данном этапе ИИ осуществляет в социальных сетях мониторинг вовлеченности в реальном времени, отслеживая какие именно посты, мемы и формулировки вызывают наибольший отклик (лайки, комментарии, репосты, время просмотра) и определяет, в каких группах и у каких конкретно пользователей нарратив «приживается» лучше всего. На основе полученных данных алгоритм ИИ мгновенно меняет тактику: усиливает удачные нарративы, отказывается от провальных, перенацеливается на новые, более восприимчивые аудитории. Результатом этапа является превращение информационно-психологической операции из разовой акции в непрерывный, масштабируемый, дешевый и невероятно точный самооптимизирующийся процесс воздействия [4].
комментариев и даже времени активности ИИ строит психологические портреты пользователей (например, по модели «Большая пятерка» или определяя уровень нейротизма, открытости опыту). NLP-модели изучают специфический сленг, мемы и стиль общения молодежи, что позволяет определить какие проблемы волнуют молодежь прямо сейчас (например, экзамены, конфликты, мода на определенные игры), и впоследствии генерировать контент, который не будет отличаться от речи сверстника.
символы) позволяет установить тесный дружественный информационный контакт с объектом воздействия. В ходе астротурфинга ИИ выстраивает для каждого пользователя индивидуальную «информационную воронку вовлечения»: сначала нейтральный контент, затем - с легкой деструктивной нотой, и так до тех пор, пока человек не будет готов принять откровенно вредоносное ядро. В случае появления в группе контента реальных аккаунтов, разоблачающего ИПО, ИИ координирует массированные атаки троллей на оппонента, чтобы его «затролить», засыпать жалобами и вывести из дискуссии, создавая иллюзию «единственно верного» мнения. ИИ постоянно обучается на основе решений модераторов платформ. Он может автоматически перефразировать тексты, изменять картинки или настраивать время публикации, чтобы избежать бана. Таким образом, информационно-психологическое воздействие на молодежь перестает быть массовым и становится индивидуальным. Каждый пользователь получает уникальную, подобранную под его психотип «дорожку» в деструктивную идеологию. Наиболее опасной и трудно контролируемой атакой является информационный вброс через игры - которые в настоящее время соответствуют всем критериям социальных сетей и эзотерику: деструктивные идеи подаются как часть увлекательной игры, квеста или тайного знания, доступного лишь избранным. Пример: создание ARG (Alternate Reality Game -игра в альтернативной реальности), где разгадывание головоломок приводит участников к сайтам с радикальной идеологией.
Для уменьшения скрытого воздействия (инкапсуляции) в информационнопсихологических операциях против молодежи в современных условиях нужно применение симметричных технологий AI-систем мониторинга и противодействия на уровне платформ и государств: ИИ-защитников, образовательного ИИ, интеллектуальных средств цифровой гигиены. Информационное противоборство должно переместиться из плоскости «модератор против контента» в плоскость «AI-систем мониторинга и противодействия против ИИ-агрессора» на уровень платформ и государств, где ключевую роль играет скорость обучения алгоритмов AI-систем и качество данных.
К чат-ботам, выполняющих защитные функции (ИИ-защитников), в зависимости от их конкретного назначения можно отнести: антиспам-боты - сервисы сети, обеспечивающие фильтрацию нежелательных сообщений и рекламы в группах и чатах; боты-модераторы - автоматизированные помощники, удаляющие системные уведомления и блокирующие нарушителей правил; анти-фрод-боты - специализированные боты для защиты от мошенничества (фрода), фишинга и кражи персональных данных; киберпомощники или ИИ-ассистенты по безопасности - современные системы, использующие машинное обучение для анализа поведения пользователей и выявления угроз в реальном времени; бот-фильтры или капча-боты - защитные инструменты сети, требующие от новых участников выполнения действий (ввод текста, выбор изображений – emoji) для подтверждения того, что они не являются вредоносными программами; цифровые стражи (Digital Guardians) - интеллектуальные системы защиты, часто используемые в корпоративной среде. Также, для профессиональных систем информационной безопасности также используются SOC-боты (Security Operations Center) или EDR-агенты с разговорным интерфейсом.
Так в социальных сетях ИИ-защитники (AI Guardians) в реальном времени анализируют не текст, а нарративы. Система учится выявлять не запретные слова, а деструктивные смысловые конструкции, даже высказанные эвфемизмами. Важным является и их способность обнаруживать координированное поведение бот-сетей, а не отдельные деструктивные аккаунты.
Образовательный ИИ позволяет создать интерактивные тренажеры, которые в игровой форме учат молодежь распознавать самые изощренные методы манипуляции, симулируя атаки ИИ-противника. На этапе цифровой гигиены важно осознание того, что любой контент (текст, изображение, видео) потенциально может быть синтезирован. Критерием истины перестает быть качество видимого контента, а становится только проверка по авторитетным источникам.
Задача же человека - сохранять критическое мышление как последний рубеж обороны. Зная методы инкапсуляции, нужно целенаправленно формировать у молодежи следующие навыки: деконструировать контент - «разделять» приятную оболочку и скрытое ядро; распознавать эмоциональные крючки: понимать, когда контент играет на их чувствах; анализировать аргументацию: видеть логические ошибки и манипуляции с фактами; проверять мотивы автора: задаваться вопросом - «Почему этот человек говорит мне это именно так и в таком формате?». Это превращает молодого человека из пассивного потребителя в активного и критически мыслящего аналитика, обладающего «иммунитетом» к подобным техникам [4].
Таким образом, ИИ в социальных сетях - мощный инструмент, который может приносить значительную пользу, но при неправильном использовании становится источником рисков и угроз. Обеспечение безопасного, этичного и прозрачного использования ИИ требует скоординированных усилий всех участников цифровой экосистемы. Только так можно сохранить доверие пользователей, защитить их права и создать здоровую информационную среду, где технологии служат интересам общества.