Возможности и угрозы применения искусственного интеллекта (ИИ) в политических коммуникациях
Автор: Уртаева Э.Б.
Журнал: Общество: политика, экономика, право @society-pel
Рубрика: Политика
Статья в выпуске: 2, 2024 года.
Бесплатный доступ
В статье рассмотрены аспекты, связанные с возможностями и угрозами применения искусственного интеллекта (ИИ) в политических коммуникациях. Делается вывод о двойственном характере использования искусственного интеллекта (ИИ) в политических коммуникациях. Обращается внимание на ключевые текущие угрозы применения ИИ в политических коммуникациях - распространение дипфейков и применение ИИ-алгоритмов в целях дезинформации, манипуляции общественным сознанием или получения преимуществ в селективном доведении информации до адресатов. Приводится комплексная аргументация глубины проблем, связанных с потенциальным применением ИИ в электоральных коммуникациях и сложностей, возникающих в ходе их преодоления. Предлагаются практические меры по нивелированию негативных аспектов потенциального использования искусственного интеллекта в политических и, прежде всего, электоральных коммуникациях в Российской Федерации.
Искусственный интеллект, политические коммуникации, предвыборные коммуникации, дипфейки, манипуляции, дезинформация
Короткий адрес: https://sciup.org/149145320
IDR: 149145320 | DOI: 10.24158/pep.2024.2.3
Текст научной статьи Возможности и угрозы применения искусственного интеллекта (ИИ) в политических коммуникациях
Введение (актуальность) . Развитие цифровизации в современных условиях преимущественно опирается на повсеместное использование искусственного интеллекта (ИИ) в различных областях человеческой деятельности, включая политические и предвыборные коммуникации.
В опубликованном 11 января 2024 года отчете экспертной группы Всемирного экономического форума и компании Accenture говорится, что ИИ и его порождения – дипфейки, специальные алгоритмы анализа и передачи информации, включая обход информационных фильтров, – являются ключевой современной угрозой демократическим процессам1.
Проблематика, затрагиваемая в настоящей публикации, особенно актуальна для развития теории и практики политических коммуникаций в Российской Федерации. Россия находится в состоянии перманентной гибридной войны, развязанной коллективным Западом, и основным местом действия выступает виртуальное пространство (Moy, Gradon, 2023), которое зачастую «не знает» национальных границ, но представляет собой широкое поле для неконтролируемых воздействий негативного рода, таких как манипуляции и дезинформация.
В зоне особого внимания находятся президентские выборы 2024 года, которые пройдут в сложнейших для России условиях радикального обострения геостратегического противоборства. В 2024 году электоральные кампании, в том числе судьбоносного характера, будут проводиться во многих странах мира, включая США, которые являются важным мировым центром политических коммуникаций и инноваций в данной сфере.
Инновационный характер настоящего исследования заключается в том, что в нем предложены варианты использования ИИ для улучшения качества политических коммуникаций и управления ими, а также информационно-аналитического обеспечения политических коммуникационных активностей. Положения настоящей работы также призваны пролить свет на мифы и реальность в контексте угроз использования искусственного интеллекта и расширить спектр научных предложений по безопасному и эффективному применению цифровых инноваций в политическом общении. Стремительное вхождение в российский политический дискурс ИИ потенциально чревато усилением активности в сфере гибридных войн, однако другие применения технологии искусственного интеллекта, напротив, способны усилить результативное противоборство недружественным действиям и, в целом, вывести политические коммуникации на новый, качественно более высокий уровень. Материалы данной публикации могут рассматриваться как элементы для построения «дорожных карт» и других инструментов информационной политики, направленной на активизацию возможностей и снижение угроз применения ИИ в политических коммуникациях Российской Федерации.
Несмотря на наличие ряда исследований российских авторов, которые занимаются вопросами цифровизации политических коммуникаций и применения ИИ в политике (Бажанов, 2023; Быков, 2020; Виловатых, 2019; Гладченко, 2023; Жуков, 2020; Федорченко, 2020), спектр новейших сфер применения ИИ в политических коммуникациях остается не полностью изученным. При этом динамизм развития технологий искусственного интеллекта порождает новые возможности вместе с угрозами для политических коммуникаций.
Цель и задачи . Целью настоящей публикации выступает проведение комплексного анализа аспектов, связанных с возможностями и угрозами применения искусственного интеллекта (ИИ) в политических коммуникациях. Для достижения данной цели поставлены следующие задачи: систематизировать знания о природе ИИ и его возможностях, в том числе преимуществах при использовании в политическом процессе и политических коммуникациях; выделить и подвергнуть научному анализу ключевые угрозы, связанные с применением ИИ в политических коммуникациях: распространение дипфейков, информационную перегрузку и дезинформацию на основе использования ИИ-алгоритмов; предложить меры противодействия негативным ИИ-прояв-лениям в предвыборных коммуникациях в Российской Федерации.
Материалы и методы . В настоящем исследовании представлены результаты концептуального анализа возможностей и угроз применения ИИ в политических коммуникациях, включая электоральные. Они основаны на синтезе положений концепций цифровизации, информатизации, информационного общества, современных положений теории коммуникаций и политического общения с учетом материалов академических исследований российских и зарубежных авторов, а также сведений, изложенных в документах международных организаций и релевантных информационных сообщений в СМИ.
Результаты . Феномен ИИ – важное порождение процесса цифровизации, который рассматривается в качестве драйвера новейшей индустриальной и, в более широком контексте, – социальной революции (Li, 2020). Обобщая существующие определения, искусственный интеллект можно описать как область компьютерных наук, которая занимается разработкой алгоритмов и систем, способных выполнять задачи, требующие интеллектуальных способностей человека, таких как распознавание образов, обучение, планирование, принятие решений и т. д., а также связанные с ней цифровые технологии, применяемые в практической деятельности.
Искусственный интеллект – одна из ключевых цифровых технологий современности, применение которой радикально меняет контуры общественных отношений. ИИ принято относить к цифровым технологиям сквозного характера, то есть к таким, применение которых затрагивает многочисленные сферы жизнедеятельности и меняет их, в том числе в рамках единой итерации использования такой технологии. Притом существенный потенциал искусственного интеллекта предполагает целесообразность его использования во благо прогресса человечества, включая многие направления практической деятельности, где соответствующие результаты не могли быть достигнуты на прежнем уровне научно-технического развития, с использованием того, что принято называть «аналоговыми» технологиями и инструментами.
Искусственный интеллект, как порождение информационного поля, постепенно захватывает все более важные роли в коммуникативном пространстве. При этом использование ИИ в коммуникациях, имеющих высокую общественную чувствительность, все чаще вызывает опасения, многие из которых вполне обоснованы. Одно из опасений подобного рода – существенная оценка угроз утраты субъектности традиционными акторами политической коммуникации в результате их замены ИИ, незаметной для получателя политической информации – представляется весьма дискуссионным. И, оставляя задачи оценки и урегулирования данного вопроса уполномоченным субъектам, необходимо сфокусироваться, прежде всего, на текущих проблемах ИИ, которые могут оказать негативное влияние, в частности, на предстоящие в марте 2024 года выборы президента Российской Федерации. Соответствующие аспекты будут систематизированы ниже, и их целесообразно предварить рассмотрением возможностей ИИ для политических коммуникаций, принципиально оправдывающих его использование на практике, вместе с отсутствием необходимости установления тотальных запретов.
Суммируя наработки теоретического и практического характера (Feijóo et al., 2020; Gacanin, Di Renzo, 2020; Kerr, Barry, Kelleher, 2020), можно констатировать, что применение искусственного интеллекта в политических коммуникациях может привести к улучшению эффективности и точности анализа данных, повышению качества рекламных кампаний, уровня персонализации и адаптации к потребностям избирателей, а также увеличению скорости и эффективности процессов принятия решений на основе данных. Это может помочь политикам лучше понимать своих избирателей, предоставлять им более релевантную информацию и улучшать стратегии коммуникации.
Соответствующие возможности тесно соседствуют с разноплановыми угрозами, что само по себе соответствует специфике новейших технологий, основанных на инструментах цифровизации. Их реализация зависит от непрерывности работы цифровых платформ и каналов коммуникаций, которая связана с качеством разработки инструментов и инфраструктуры цифровизации, устойчивым функционированием средств онлайн-передачи и обмена информацией, территориальной и финансовой доступностью высокоскоростного интернета и необходимого коммуникационного оборудования, а также с защищенностью информации от несанкционированного доступа и иных угроз.
Однако несанкционированный доступ к информации, ее искажение или блокировка передачи под воздействием деструктивно настроенных третьих сторон, безусловно, не образуют то «ядро» рисков использования ИИ в политических коммуникациях, наличие которого предопределяет дискуссию о необходимости установления тотальных ограничений и запретов в данной области автоматизации коммуникационной политической деятельности, включая, прежде всего, наиболее чувствительную область – предвыборных (электоральных) коммуникаций.
Речь идет о новейших возможностях манипуляции сознанием избирателей (в широком смысле – любых реципиентов политических коммуникаций) и их дезинформации, которые влекут за собой применение искусственного интеллекта.
Одним из важнейших порождений ИИ в контексте использования для манипуляции и дезинформации избирателей – так называемые дипфейки. Под дипфейками (от англ. deep – глубокая и fake – подделка) следует понимать технологию создания фальшивых видео- и аудиоматериалов с применением искусственного интеллекта, которые могут быть использованы для манипуляции общественным мнением, распространения дезинформации и создания ложных представлений о реальности. Технология дипфейков основывается на глубоком обучении (англ. deep learning ) ИИ, позволяющем создавать реалистичные видео- и аудиозаписи, в которых лица и голоса людей могут быть подменены на другие.
С помощью технологии дипфейков возможно создавать графические материалы для дальнейшего распространения, которые потенциально введут в заблуждение избирателей. Дипфейки могут применяться для генерирования видео, в которых политические кандидаты говорят или делают что-то, чего они на самом деле не делали. Распространение подобной информации может привести к тому, что избиратели будут голосовать на основе ложных представлений о кандидатах и их позициях. Опасность использования дипфейков в политических коммуникациях в немалой степени связана с феноменами стереотипизации сознания, риском распространения ложных аффир-маций, в том числе вызывающих массовые устойчивые проявления, такие как «эффект Манделы».
Зарубежные исследователи (Hameleers, van der Meer, Dobber, 2023; Karnouskos, 2020) пришли к выводу о том, что эффект информационного воздействия от самих дипфейков зачастую превышает эффекты, связанные с последующим неизбежным разоблачением технологических проблем.
Нередко может сложиться ситуация, когда в сознании избирателей, причем многих, отразится негативный аспект, формирующий образ кандидата, и сохранится таковым на протяжении многих лет, при этом сведения о том, что соответствующее конструирование образа было связано с дипфейком, подсознательно отойдут на задний план как якобы малосущественные и, в результате, достаточно быстро забудутся. Например, в 2019 году было создано дипфейковое видео, на котором американский конгрессмен (на тот момент – спикер Палаты Представителей) Нэнси Пелоси выглядела находящейся в состоянии алкогольного или иного опьянения, ее речь изобиловала ошибками и несвойственными для политика подобного ранга высказываниями. Это видео было распространено в социальных сетях, и многие люди поверили в его подлинность1, что могло повлиять на их мнение о Пелоси и ее способности заниматься своей работой. Сочетание шока, в котором будут пребывать реципиенты политической информации, вместе со значительными возможностями усиления впечатлений через распространение аудиовизуальной информации образует возможности для реализации механизма «якорения» сведений, передаваемых через дипфейки, в индивидуальном и массовом сознании.
Причем в механизм распространения дипфейков входят прагматические оценки организационных и иных затруднений, с которыми придется сталкиваться сторонам, заинтересованным в их разоблачении. Например, как в России, так и за рубежом, наиболее надежным способом доказательства поддельного характера политической и иной информации («фейков») выступает их опровержение в судебном порядке. Важно понимать, что рассмотрение гражданских исков, в частности, по защите чести и достоинства политического деятеля, происходят на основании состязательного принципа, то есть потерпевшей стороне приходится собственными силами доказывать, что соответствующая информация стала результатом использования ИИ-технологий и не относится к конкретному политику или политической силе. Подобное доказывание может быть затруднено и техническими, и юридическими аспектами (в частности, ИИ для создания дипфейков использует оригинальные изображения и записи речи конкретных людей, вследствие чего формально соответствующие видео- и аудиоматериалы будут атрибутироваться данным конкретным субъектам).
Чтобы не допустить «якорения» дипфейков в сознании избирателей, необходимо действовать очень оперативно и зачастую без наличия четко выработанной стратегии, поскольку сами попытки опровергнуть принадлежность определенных аудио- и видеозаписей, воспроизводящих абсурдную по своей сути информацию, могут рассматриваться как «слабость» политических оппонентов и даже как факты, косвенно подтверждающие якобы подлинность дипфейков. В конечном счете, судебные разбирательства, в том числе с прохождением установленных стадий обжалования, могут длиться месяцами и даже годами, в то время как электоральные циклы имеют весьма короткие и достаточно четкие временные ограничения. Данные аспекты также учитываются создателями и распространителями дипфейков, которые идут на соответствующие действия и достигают целей и задач, несмотря на, казалось бы, неизбежное разоблачение. Более того, без установления тотального контроля над интернетом или, по меньшей мере, существенного организационного обеспечения квалифицированными специалистами в области ИИ технологического оснащения, и государственные, и частные субъекты информационной разведки будут испытывать значительные затруднения в высокоточном определении источника дипфейка. Бороться с распространителями соответствующей информации, в целом, несколько легче, однако многие из них смогут доказать свою добросовестность (опять же, прежде всего, в условиях технологической сложности доказательства обратного), а тотальное вмешательство в деятельность средств массовой информации, которые по традиции нацелены быстро распространять «горячие» новости, может рассматриваться как грубое ограничение свободы слова.
Таким образом, существует значительный риск, связанный с тем, что дипфейки, в основу которых положены технологии ИИ и машинного обучения, могут быть использованы для манипуляции общественным мнением и введения в заблуждение избирателей, что окажет негативное влияние на процесс выборов и демократические процессы в целом.
Дипфейки – не единственное порождение ИИ, которое сегодня создает угрозы политическим процессам и коммуникациям. На уровне мирового сообщества2 значительные опасения вызывают технологии ИИ-алгоритмов, применяемые для распространения заведомо недостоверной информации (дезинформации, прежде всего, избирателей). Основная проблема в данной области заключается в том, что ИИ способен генерировать огромные массивы недостоверной информации, при этом:
– во-первых, искусно маскируя соответствующие сведения как авторские и вызывающие доверие у получателей информации, в том числе основываясь на продвинутых знаниях о психологии представителей электората. Машинное обучение создает колоссальные возможности в данной сфере, поскольку позволяет таким образом «тренировать» искусственный интеллект, чтобы усовершенствованные алгоритмы в дальнейшем приводили к тому, что число получателей информации, усомнившихся в них, будет сводиться к нулю на уровне статистической погрешности (Mukta et al., 2023; Nguyen et al., 2022). Для ИИ и машинного обучения, в отличие от многих других сфер практической деятельности, неудачи в апробации технологий – важный и неотъемлемый источник будущих побед. Причем релевантный опыт с доведением целевых показателей восприятия распространяемой информации, как достоверной, до приемлемых для недобросовестных сторон значений, во многих странах накоплен уже сегодня;
– во-вторых, решая задачу организационного и, прежде всего, кадрового обеспечения: если прежде для создания и распространения фейков требовалось содержать значительное число работников (организацию деятельности которых, помимо прочего, крайне сложно скрыть), то сегодня за счет ИИ появляются возможности генерации в сотни тысяч раз большего объема информации, практически не полагаясь на организационный ресурс;
– в-третьих, обходя существующие информационные фильтры и иные барьеры, предназначенные для выявления дезинформации и блокировки соответствующих информационных потоков, в том числе через два ключевых механизма: (1) перегрузки соответствующих аналитических инструментов действительно «большими» данными; (2) «умного» обхода алгоритмов детекции политической дезинформации на основе, опять же, технологий машинного обучения, использование которых априори будет иметь опережающий характер (даже если встречные инструменты выявления политической дезинформации также будут основываться на ИИ и машинном обучении, что, безусловно, обеспечит определенный рост качества и производительности в их работе, само обучение будет лишь реагировать на технологии недобросовестных распространителей информации, «первое слово» в борьбе интеллектов останется за ними).
Однако далеко не все акты использования ИИ-алгоритмов нацелены на конечное распространение дезинформации, в том числе недостоверных сведений, особо чувствительных для определенных кандидатов. Некоторую, порой существенную (Jungherr, 2023) эффективность может образовать распространение так называемого «информационного шума» из потоков недостоверной и, как правило, несущественной информации, которая заполняет пространство электоральных и иных политических коммуникаций. Кроме того, она отвлекает реципиентов информации от действительно важных событий, заставляя прилагать дополнительные усилия к выявлению «фейков», формируя общее недоверие к политической информации и, в ряде случаев, породить электоральное безразличие, снижая явку на выборы, влияя на сокращение электоральной базы определенных политических сил и/или деятелей.
ИИ-алгоритмы также позволяют распространять определенные политические сообщения заведомо недостоверного характера, доводя их через технологию таргетированной рекламы непосредственно до тех реципиентов, которым соответствующие сведения изначально адресо-ваны1. Таргетированная, с применением ИИ, политическая реклама, несомненно, имеет более высокую эффективность в сравнении с нецифровыми инструментами, при этом априори нарушается законодательное требование обезличенного характера электоральных коммуникаций, установленное во множестве государств современного мира. Такие алгоритмы передачи сведений с селективным их доведением до нужного адресата за счет использования ИИ могут, по меньшей мере, обеспечивать несправедливые преимущества отдельным участникам избирательного процесса, и, в худшем случае, будут использованы для масштабного подрыва доверия к избирательным процессам или вовсе для их срыва.
С помощью ИИ-алгоритмов может быть обеспечено результативное манипулирование общественным мнением, в том числе через усиление эффекта от одних политических сообщений, распространяемых в цифровых каналах (прежде всего, в социальных сетях), и/или подавление эффектов, образуемых другими сообщениями2.
Наконец, применение ИИ-алгоритмов усиливает риски информационной безопасности во всех сферах, например, может помочь злоумышленникам получить доступ к электоральной информации, которая хранится в цифровом виде; использовать данные сведения для неправомерного ведения политической борьбы и/или заменить/удалить такие сведения, нанося, порой, непоправимый вред выборам, при этом с высокой вероятностью оставаясь неидентифицирован-ными. На этом принципе, в частности, основываются механизмы попыток технологического вмешательства в электоральные процессы третьих стран.
Масштабы использования ИИ-алгоритмов в политических коммуникациях России и за рубежом на сегодня точно неизвестны, тем более что далеко не всегда удается разоблачить дезинформацию и остановить алгоритмы обхода специализированных информационных фильтров.
По всей видимости, соответствующие показатели существенно варьируются между странами, учитывая политическую и информационную зрелость общества, его резистентность к информационным манипуляциям и дезинформации, а также глубину проникновения цифровизации. При этом очевидно, что активизация соответствующих недобросовестных субъектов приходится на предвыборный процесс, где фокусируются ключевые интересы политических акторов и концентрируется значительное число потенциальных заказчиков деструктивных ИИ-технологий с высоким уровнем платежеспособности.
Говоря о решении проблемы применения ИИ в электоральных коммуникациях, прежде всего, хотелось бы отметить, что осознание ее наличия и значимости как на национальном, так и на международном уровне, может стать первичным источником успехов в предметной области.
Среди практических решений по снижению угроз применения ИИ в политических и, прежде всего, электоральных коммуникациях в Российской Федерации, опираясь на международный опыт и с учетом организационных и технологических особенностей соответствующих инноваций в информационно-коммуникационной сфере, могут быть предложены следующие:
-
- регулирование использования ИИ в политических кампаниях, включая выработку единых правил и ограничений на использование ИИ в политических кампаниях, подкрепленных наиболее суровыми мерами ответственности за нарушение;
-
- развитие технологий борьбы с дезинформацией и фейковыми новостями, включая ИИ и другие инструменты, существенное повышение технологической оснащенности и кадровой обеспеченности уполномоченных структур;
-
о бучение пользователей интернета, позволяющее им лучше понимать, как работает ИИ и как его можно использовать для манипуляции и дезинформации;
-
- создание независимых организаций для проверки информации;
-
- обеспечение систематического мониторинга политических коммуникаций на предмет распространения дипфейков и использования деструктивных ИИ-алгоритмов;
-
- разработка механизмов усиления прозрачности при использовании ИИ в политических кампаниях даже в конструктивном контексте, включая установление обязанности кандидатов и политических организаций предоставления сведений о применении ИИ в политических коммуникациях, их проектировании и управлении ими.
Выводы . Использование искусственного интеллекта в политических коммуникациях имеет двойственный характер. С одной стороны, ИИ может быть использован для улучшения и оптимизации политических кампаний, например, для анализа данных и прогнозирования результатов выборов. Однако, с другой стороны, Ии может быть использован с целью манипуляции и дезинформации - для создания фейковых новостей и распространения ложной информации, включая ИИ-алгоритмы и применение технологии дипфейков. Для минимизации негативного влияния ИИ на электоральные и иные политические коммуникации представляется необходимым установить четкие правила и ограничения на использование ИИ в политических кампаниях, проводить обучение пользователей интернета, развивать технологии борьбы с дезинформацией и создавать независимые организации для проверки информации. Также политические кандидаты и организации должны взять на себя обязательства предоставлять прозрачную информацию о том, как они используют ИИ в своих кампаниях. С применением соответствующих рекомендаций и при учете повышения информированности о существующих проблемах видится возможным минимизировать риски манипуляции и дезинформации, обеспечить честные и справедливые политические процессы в условиях активного применения ИИ в политических коммуникациях.
Список литературы Возможности и угрозы применения искусственного интеллекта (ИИ) в политических коммуникациях
- Бажанов В.А. Искусственный интеллект, технологии Big Data (больших данных) и особенности современного политического процесса // Философия. Журнал высшей школы экономики. 2023. Т. 7, № 3. С. 193–210. https://doi.org/10.17323/2587-8719-2023-3-193-210.
- Быков И.А. Искусственный интеллект как источник политических суждений // Журнал политических исследований. 2020. Т. 4, № 2. С. 23–33. https://doi.org/10.12737/2587-6295-2020-23-33.
- Виловатых А.В. Искусственный интеллект как фактор военной политики будущего // Проблемы национальной стратегии. 2019. № 1 (52). С. 177–192.
- Гладченко И.А. Искусственный интеллект в современной политической коммуникации // Медиа в современном мире. 62-е Петербургские чтения: сб. мат. ежегодного Международ. науч. форума: в 2 т. СПб., 2023. Т. 2. C. 234–236.
- Жуков Д.С. Искусственный интеллект для общественно-государственного организма: будущее уже стартовало в Китае // Журнал политических исследований. 2020. Т. 4, № 2. С. 70–79. https://doi.org/10.12737/2587-6295-2020-70-79.
- Федорченко С.Н. Искусственный интеллект в сфере политики, медиапространства и государственного управления: размышления над тематическим портфелем. Журнал политических исследований. 2020. Т. 4, № 2. С. 3–9. https://doi.org/10.12737/2587-6295-2020-3-9.
- An investigation of the effectiveness of deepfake models and tools / M.S. Mukta [et al.] // Journal of Sensor and Actuator Networks. 2023. Vol. 12, no. 4. Article 61. https://doi.org/10.3390/jsan12040061.
- Deep learning for deepfakes creation and detection: A survey / T.T. Nguyen [et al.] // Computer Vision and Image Under-standing. 2022. Vol. 223. Article 103525. https://doi.org/10.1016/j.cviu.2022.103525.
- Gacanin H., Di Renzo M. Wireless 2.0: Toward an intelligent radio environment empowered by reconfigurable meta-surfaces and artificial intelligence // IEEE Vehicular Technology Magazine. 2020. Vol. 15, no. 4. Pp. 74–82. https://doi.org/10.1109/MVT.2020.3017927.
- Hameleers M., van der Meer T.G., Dobber T. Distorting the truth versus blatant lies: The effects of different degrees of de-ception in domestic and foreign political deepfakes // Computers in Human Behavior. 2023. Vol. 152, no. 2. Article 108096. https://doi.org/10.1016/j.chb.2023.108096.
- Harnessing artificial intelligence (AI) to increase wellbeing for all: The case for a new technology diplomacy / C. Feijóo [et al.] // Telecommunications Policy. 2020. Vol. 44, no. 6. Article 101988. https://doi.org/10.1016/j.telpol.2020.101988.
- Jungherr A. Artificial intelligence and democracy: A conceptual framework // Social media + society. 2023. Vol. 9, no. 3. Article 2056305123118635. https://doi.org/10.1177/2056305123118635.
- Karnouskos S. Artificial intelligence in digital media: The era of deepfakes // IEEE Transactions on Technology and Society. 2020. Vol. 1, no. 3. Pp. 138–147. https://doi.org/10.1109/TTS.2020.3001312.
- Kerr A., Barry M., Kelleher J.D. Expectations of artificial intelligence and the performativity of ethics: Implications for communi-cation governance // Big Data & Society. 2020. Vol. 7, no. 1. Article 2053951720915939. https://doi.org/10.1177/2053951720915939.
- Li R. Artificial intelligence revolution: How AI will change our society, economy, and culture. New York, 2020. 288 p.
- Moy W.R., Gradon K.T. Artificial intelligence in hybrid and information warfare: A double-edged sword // Artificial Intelligence and International Conflict in Cyberspace. Routledge, 2023. Pp. 47–74. https://doi.org/10.4324/9781003284093-4.