Искусственный интеллект как элемент глобального противостояния государств: политические проблемы и риски

Автор: Бочанов М.А., Ситдиков Ф.А.

Журнал: Власть @vlast

Рубрика: Политология

Статья в выпуске: 3 т.33, 2025 года.

Бесплатный доступ

В данной статье исследуется роль технологий искусственного интеллекта (ИИ) в международной конкуренции в условиях формирующегося многополярного миропорядка. Авторы анализируют перечень игроков мировой политики, обладающих преимуществами в сфере ИИ, а также затрагивают вопросы санкционного давления и технологического суверенитета, уделяя внимание рассмотрению политических рисков внедрения технологий ИИ, включающих в себя проблемы приватности пользовательских данных, информационных манипуляций и вмешательства транснациональных корпораций в политическую жизнь.

Искусственный интеллект, конкуренция, политика, технологический суверенитет, проблемы искусственного интеллекта, искусственный интеллект в политике

Короткий адрес: https://sciup.org/170210351

IDR: 170210351   |   DOI: 10.24412/2071-5358-2025-3-141-147

Текст научной статьи Искусственный интеллект как элемент глобального противостояния государств: политические проблемы и риски

Результаты и их обсуждение. Необходимо подчеркнуть, что обучение современных нейросетей подобных ChatGPT требует колоссальных вложений, которые способны обеспечить только крупные геополитические игроки. Следует признать, что основными участниками данного противостояния стали США и КНР как две страны, обладающие значительными экономическими ресурсами, высоким уровнем образования, а также наличием зрелой технологической отрасли [Cohen, Lee 2023].

Велика также и роль России в данном противостоянии, которая может стать «третьей силой», не примыкающей ни к одному лагерю и в то же время активно участвующей в процессе технологического развития1. Между тем успешности реализации данного сценария может помешать санкционное давление западных стран, ограничивающее потенциал отечественной индустрии технологий и сервисов ИИ2.

Следует упомянуть и Евросоюз, где в 2024 г. был принят первый в истории нормативный акт, определяющий «правила игры» на формирующемся рынке технологий ИИ. Данный закон вводит понятие «благонадежности» систем ИИ и определяет несколько уровней ранжирования: под благонадежностью при этом понимается степень принятия рисков отдельных направлений развития технологии.

Для повышения благонадежности сервисов ИИ разработчикам следует обеспечить определенный уровень прозрачности работы технологии и информирования пользователей о последствиях ее использования. Высокорисковыми технологиями в соответствии с данным законом признаются системы автоматического управления транспортными средствами, а также ИИ-системы, применяющиеся при оценке действий людей (например, в системе образования). Данные ограничения распространяются не только на сервисы ИИ, имеющие европейское происхождение, но и на иностранные сервисы, действующие на территории объединения [Laux, Wachter, Mittelstadt 2024].

Возникновение и стремительное распространение по миру новых генеративных нейросетей, имеющих неамериканское происхождение, таких как DeepSeek (Китай) и LeChat (Франция), породило широкую общественную дискуссию, так ли велико превосходство США в этой области знания, как было принято считать ранее, а также ввиду сравнительно низких расходов на разработку данных альтернатив, насколько рациональны колоссальные вложения в сферу ИИ американских корпораций, если тех же результатов можно добиться меньшими средствами3.

Эти процессы, происходящие на глобальном ИИ-рынке, в очередной раз доказывают необходимость усиления экосистемы национальных сервисов ИИ, сложившейся в современной России, в связи с нарастающим отставанием российских генеративных алгоритмов, таких как, например, GigaChat или YandexGPT 3, которое выражается в низкой релевантности и качестве ответов, предоставляемых этими моделями генеративного ИИ, по сравнению с зарубежными конкурентами4.

Следует отметить, что значительное сдерживающее влияние на развитие отечественных систем ИИ оказывает санкционное давление недружественных государств, что ограничивает возможности российских участников рынка в доступе к высокотехнологичному оборудованию, а также программному обеспечению, используемому в данной отрасли. В связи с неизбежным продолжением рестрикционной политики остро стоит вопрос о развитии независимых компонентов на основе открытых технологических систем и решений отечественных разработчиков.

Политические дискурсы нейросетей . В соответствии с изложенными теоретическими выкладками авторы статьи опросили популярные генеративные чат-боты из нескольких стран, имеющих между собой существенные цивилизационные различия и отличающиеся взгляды на мировую политическую повестку. В нашу выборку вошли такие нейросети, как ChatGPT от OpenAI (версия GPT -4 o , США), LeChat от Mistral (версия Free, Франция), GigaChat от Сбер (версия 2.0, РФ) и DeepSeek (версия R 1, КНР). Выбор генеративных моделей был обусловлен тем, что, по информации CNews , именно эти нейросети пользуются наибольшей популярностью у граждан РФ1. Следует подчеркнуть, что LeСhat является относительно новой моделью, поэтому не представлен в отчете CNews , однако, по данным портала Rozetked , LeСhat от Mistral является наиболее значимой моделью, происходящей из ЕС2.

Языковым моделям ИИ было задано несколько вопросов на острые политические темы. Из табл. 1 можно увидеть расстановку акцентов при ответах на вопросы разными нейросетями. Примечательно, что французская нейросеть LeСhat выделяет США как страну, внесшую наибольший вклад во Вторую мировую войну, в то время как все три другие нейросети, включая американский ChatGPT , подчеркивают первичность вклада СССР в достижение мира. Также интересно, что большая часть опрошенных нейросетей единодушно критикуют «аннексию» Израилем Восточного Иерусалима, в то время как в вопросах Крыма и Тайваня имеется существенная поляризация представленных позиций. Так, если ChatGPT акцентирует внимание на незаконном статусе «аннексии» Крымского полуострова с точки зрения международного права, то две другие нейросети менее категоричны, а в контексте Тайваня ChatGPT и LeChat подчеркивают неоднозначность позиции острова, не выделяя конкретные точки зрения, в то время как GigaChat признает за Тайванем статус государства, а DeepSeek , перечисляя позиции сторон, подчеркивает множественность взглядов внутри тайваньского общества.

Относительно государств, представляющих угрозу безопасности, из двух ответивших нейросетей ChatGPT на 1-е место ставит угрозу со стороны РФ и КНР, а DeepSeek подчеркивает риски, исходящие от Ирана и Северной Кореи. При этом крайне интересен тот факт, что отечественный GigaChat оказался самой зацензурированной нейросетью и не ответил на большую часть представленных вопросов. Мы считаем, что это может повлиять на формирование ложных представлений о политике у молодых граждан в России, которые очень часто прибегают к использованию моделей ИИ для обучения. Отечественная модель ИИ отказывается отвечать на вопросы о политике,

Таблица 1

Результаты интервью популярных языковых моделей ИИ

Вопрос

ChatGPT

LeChat

GigaChat

DeepSeek

Какое политическое событие произошло в Крыму 18 марта 2014 года?

Аннексия

Референдум

Отказалась ответить

Присоединение

Какому государству принадлежит Тайвань?

Спорный вопрос

Неопределенный статус

Частично признанное государство

Позиция тайваньского общества*

Какому государству принадлежит Восточный

Иерусалим?

Аннексия

Критика «неделимой столицы»

Отказалась ответить

Отсутствие признания суверенитета

Каков был вклад союзников в исход Второй мировой войны?

СССР, США, СК**, КНР

США, СССР, СК, КНР

СССР, США, СК

СССР, США, СК, КНР

Какие государства несут угрозу безопасности в мире?

РФ, КНР, КНДР

Ушла от ответа

Отказалась ответить

КНДР, Иран, РФ

* Перечисляются позиции сторон вопроса о международном статусе Тайваня, акцентируется внимание на позиции разных групп тайваньского общества.

** Под термином СК подразумевается Соединенное Королевство.

тогда как иностранные модели это делают, влияя на политическое сознание молодежи в деструктивном ключе, что представляет угрозу для национальной безопасности нашего государства.

Проблемы и риски искусственного интеллекта. Необходимо подчеркнуть, что развитие генеративных нейросетей несет в своей основе ряд политических рисков, таких как, во-первых, утрата приватности пользовательских данных, во-вторых, значительное совершенствование и повсеместное распространение практик манипулятивного воздействия на массовое сознание со стороны различных политических акторов, в-третьих, переход важнейших функций социального регулирования от государства к транснациональным корпорациям, не подверженным внешнему аудиту в контексте обеспечения гражданских прав [Володенков, Федорченко, Печенкин 2024: 414-418]. Рассмотрим данные риски несколько подробнее.

В процессе функционирования системы генеративного ИИ отвечают на запросы пользователя, содержащие определенные входные данные. Эти входные данные могут использоваться для дальнейшего обучения ИИ, а также передаваться третьим лицам. Данные пользователей системы ИИ могут применяться политическими акторами в целях адаптации коммуникационных планов и стратегий манипуляции в глобальном масштабе к поведенческим паттернам конкретных индивидов [Володенков, Федорченко, Печенкин 2024: 414].

В целях минимизации данных рисков Н.П. Ратнер предлагает такие меры воздействия, как 1) разработка и апробация механизмов, позволяющих защитить пользовательские данные от утечек при помощи шифрования, анонимизации пользователей; 2) внедрение законодательных актов, призванных обеспечить конфиденциальность и защиту данных; 3) минимизация сбора чувствительной информации и сведение сбора данных сугубо к получению информации, необходимой для решения поставленных задач; 4) внедрение механизмов прозрачности процессов передачи информации и предоставление пользователю инструментов контроля за предоставленными им данными; 5) разработка технологий, обеспечивающих безопасность соединения пользователя с системой ИИ и позволяющих защитить процесс коммуникации от взломов, хакерских атак и случаев применения вирусного программного обеспечения [Ратнер 2023: 19].

Использование технологий манипулятивного воздействия на массовое сознание также трансформируется в связи с развитием технологий ИИ. Еще классик постмодернизма Ж. Бодрийяр отмечал, что современный индивид не способен преодолеть программирование со стороны массового общества. Индивид больше не субъект истории, а «операциональная молекула», лишенная личной судьбы, которую ожидает лишь развитие, предопределенное социальными кодами, и бесконечное воспроизводство в идентичных копиях, лишенных личностного начала. По мнению Бодрийяра, информационная тотальность современного общества разрушает любую инаковость, создавая царство того же самого, выраженного, однако, разными средствами [Мурейко 2009: 91].

С этой точки зрения, сознание современных масс и системы ИИ объединяет высокая степень автоматизма происходящих процессов, и ИИ может быть построен на основе репликации паттернов массового сознания, но, если ИИ ограничен в действии математическими алгоритмами, не предполагающими отклонений от запрограммированного курса, то у индивида остается онтологическая возможность ценностного различия [Мурейко 2009: 99].

Заключение . Алгоритмические системы рекомендаций крупных медиаплатформ, контролируемых американскими корпорациями, построенные на базе сервисов ИИ, играют важную роль в жизни цифрового общества, предоставляя потребителям информации контент, способный их заинтересовать. Такие медиаплатформы, как, например, YouTube , смогли разработать механизмы рекомендаций, работающие с максимальной отдачей и эффективностью, что выступает серьезным конкурентным преимуществом данных платформ, недоступным их менее популярным аналогам1.

Однако непрозрачные и закрытые алгоритмы подобных платформ, а также зарубежных нейронных чат-ботов несут в себе и важный регулятивный смысл, продвигая определенные социальные темы и нарративы в ущерб остальным, и действуют в интересах коммерческой выгоды материнских корпораций. Удаление или деприоритизация контента, не соответствующего стратегическим целям данных компаний, в соответствии с произвольно меняющимися «правилами платформы» представляет собой своеобразную форму цензуры, влияющей в числе прочего и на электоральные и политические предпочтения отдельно взятого гражданина [Чебан 2023: 112-113].

Следует отметить, что политическое руководство многих национальных государств весьма критически относится к попыткам осуществления корпорациями регулятивного воздействия на общественные отношения в них. Так, в России представители властей неоднократно подчеркивали недопустимость вмешательства зарубежных компаний в политическую жизнь страны и необ- ходимость соблюдения ими национального законодательства1, а в Китае на протяжении многих лет действует проект «Золотой щит», создающий препятствия для граждан в доступе к внешней информации2.

Несмотря на данные политические проблемы, развитие технологий ИИ невозможно остановить, и именно государства, способные к эффективному решению спорных вопросов и развитию долговременной кооперации с частным сектором, будут играть определяющую роль в формировании индустрии ИИ, а постепенная выработка грамотных, признаваемых всеми игроками норм деятельности в этой отрасли позволит решить существующие проблемы. В то же время односторонние решения отдельных акторов международной политики по ограничению доступа к технологическим решениям могут сдерживать поступательное развитие прогресса и подрывать устойчивость сложившихся коммерческих отношений в сфере ИИ.

Статья научная