Нейросети в современной политике

Автор: Федулова А.В., Щегунов Н.А.

Журнал: Симбирский научный Вестник @snv-ulsu

Рубрика: Социология и политология

Статья в выпуске: 2 (48), 2023 года.

Бесплатный доступ

Статья посвящена истории создания нейросетей, которая тесно связана с двумя науками: философией и математикой. Философия внесла существенный вклад в основу нейросетей. Математика способствовала созданию искусственного интеллекта благодаря исследованиям в таких разделах, как логика, теория вычислений, теория вероятностей. В статье проводится краткий анализ принципа работы нейросети, рассматриваются возможности искусственного интеллекта в современной политике и приводятся предложения для минимизации ущерба для общества от использования нейросетей. Сегодня вопросом разработки нейросетей заняты как ученые, так и крупнейшие технологические компании. Нейросети могут представлять опасность в политике, однако они обладают большими возможностями и поэтому широко используются в данной сфере, например, генерация текста, сбор информации, моделирование и т. д. Искусственный интеллект помогает принимать правильные решения, формировать запросы общества, предсказывать будущие события с помощью математических моделей, обрабатывать огромные массивы информации, исправлять ошибки людей, что в случае «ручной» работы заняло бы много ресурсов.

Еще

Нейросеть, искусственный интеллект, политика, общество, манипулирование, избирательные инструменты, тенденции в политике, угроза

Короткий адрес: https://sciup.org/14130921

IDR: 14130921

Neural networks in modern politics

This article reveals the history of neural networks creation, which is closely related to two sciences: philosophy and mathematics. Philosophy made a significant contribution to the basis of neural networks. Mathematics contributed to the creation of artificial intelligence through the research in such areas as logic, computational theory, and probability theory. The article provides a brief analysis of the principle of operation of a neural network, discusses the possibilities of artificial intelligence in modern politics and provides suggestions for minimizing the damage to any society from the use of neural networks. Today, the development of neural networks is the key problem of both scientists and the largest technology companies. Neural networks can be dangerous in politics, but they have great potential and therefore are widely used in the field of politics, for example, text generation, information collection, modeling, etc. Artificial intelligence helps to make the right decisions, shape society's requests, predict future events using mathematical models, process huge amount of information, correct people's mistakes, which in the case of "manual" work would take a lot of resources.

Еще

Текст научной статьи Нейросети в современной политике

Нейросети активно развиваются, их применение возможно в разных областях — они используются в экономике, интернет-сер-висах, социологии, робототехнике, медицине и во многих других сферах, а также, что наиболее важно для нас, в политике [7]. Исследования искусственного интеллекта (ИИ) проводятся в крупнейших компаниях мира, таких, например, как Google и Yandex [6]. Однако с растущими возможностями растет и опасность использования нейросетей, поэтому данная тема становится актуальной.

Цель статьи — рассмотреть, какие риски для политики и общества приносит широкое использование нейросетей. Чтобы понять, как искусственный интеллект способен влиять на политику, мы считаем необходимым рассмотреть историю создания нейросетей и основной принцип их работы.

Философия оказала большое влияние на создание искусственного интеллекта. Еще такие философы, как Раймунд Луллий, Томас Гоббс и Рене Декарт, говорили о соотношении разума и вычислений. В XX веке на основе идей Людвига Виттгенштейна и Бертрана Рассела Венский кружок во главе с Рудольфом Карнапом создал концепцию логического позитивизма, в рамках которой знания характеризуются с помощью логических теорий. Также Рудольфом Карнапом и Карлом Хемпе-лем в 1967 году была создана вычислительная процедура для получения знаний из элементарных опытов [3]. Впервые мышление было напрямую связано с вычислительным процессом. Таким образом, благодаря философии были созданы важные положения рационального познания, которые легли в основу нейросетей.

Главный вклад математиков в создание искусственного интеллекта состоял в изучении следующих разделов:

— логика;

— теория вычислений;

— теория вероятностей.

Соответственно, особое значение имели работы:

— Готтлоба Фреге (создал логику первого порядка, наиболее фундаментальную систему представления знаний);

— Алана Тьюринга (выяснил, какие функции могут быть вычисленными);

— Томаса Байеса (предложил правило обновления вероятностей) [3].

Прорыв произошел в 1950-х гг. Дональд Хебб предложил новый алгоритм обучения, Фрэнк Розенблатт изобрел перцептрон и разработал первую нейронную сеть, т. е. вычислительную модель, созданную по подобию нейронных сетей в человеческом мозге. С середины XX века ученых заинтересовал вопрос искусственных нейронных сетей.

В 1970-х гг. Пол Дж. Вербос предложил метод обратного распространения ошибки, благодаря которому нейросети «научились» обрабатывать ошибки.

В 1982 году Джон Хопфилд изобрел первую ассоциативную нейронную сеть, тем самым заложив основы ассоциативной памяти в изучении ИИ. В 1980-х гг. Стивеном Гросс-бергом была создана сеть адаптивного резонанса, что решило проблему пластичности — изменения или уничтожения предыдущих результатов обучения. Джеффри Хинтоном в свою очередь была создана многослойная нейронная сеть, которая преодолела проблемы в обучении. Таким образом, ученые с середины XX века решали новые проблемы искусственного интеллекта и развивали нейросети. Сегодня вопросом разработки нейросетей заняты как ученые, так и крупнейшие технологические компании.

Из-за принципа самообучения нейронные сети могут исполнять огромное количество задач. Мы разберем те, которые могут использоваться в политической деятельности.

Во-первых, это сбор и анализ большого объема данных о пользователях с целью информирования правительства или корпорации. С помощью нейросети правительство или корпорация может собирать личную ин- формацию граждан (в том числе через анализ предпочтений) и формировать единый образ той или иной социальной группы для информирования об интересах населения. В аналитических центрах различных стран, например Китая, искусственный интеллект постоянно помогает экспертам — запоминает и распознает биометрику граждан, составляет различные политические модели и т. д. [5].

Во-вторых, нейросети используются для совершенствования алгоритмов поиска Yandex и Google [6]. Данные алгоритмы постоянно улучшаются и подстраиваются под определенного пользователя, что также может использоваться в политике — поиск в сети может скрывать определенные ссылки, выдавая на основе анализа более релевантные или выгодные правительству или корпорации.

В-третьих, нейросети могут создавать на основе запроса пользователя изображения и обрабатывать фото. Хотя сейчас в большинстве случаев изображение, созданное нейросетью, можно отличить от настоящей фотографии, мы можем видеть огромный прогресс в создании цифрового контента. Основными нейросетями для данных целей являются DALLE-E от Microsoft и Midjourney.

В-четвертых, нейросети способны создавать аудиофайлы на основе речи людей, которые имитируют голос, акцент, интонации и эмоции.

В-пятых, нейросети могут писать тексты в разных стилях с минимальным участием человека, в том числе формализованные документы, художественные книги и стихотворения с помощью Natutal Language Generation (NLG). В 2019 году несколько крупных изданий, таких как The New York Times, Associated Press, Reuters, Washington Post и Yahoo!, использовали NLG для написания своих текстов [8]. А в 2023 году депутат Госдумы Алексей Нечаев, лидер партии «Новые люди», использовал текст, написанный ChatGPT (нейросеть, способная «общаться» с человеком), для выступления в Думе [4].

В-шестых, создание дипфейков — видео, в которых лица или тела людей были изменены, чтобы они казались кем-то другими [10].

Некоторые из возможностей нейросетей широко используются в политике уже сейчас, например, генерация текста, сбор информации, моделирование и т. д. С развитием нейросетей появляется все больше поводов для опасения. С первого взгляда обыденные функции, такие как генерация фото по запросу, могут показаться полностью безобидными, тем не менее, мы видим определенную угрозу в применении искусственного интеллекта в политической сфере.

Наибольшая угроза от искусственного интеллекта исходит как от инструмента недобросовестных политиков и корпораций. ИИ не обладает собственным сознанием, и весь вред или польза от него зависит только от людей.

Нами был проведен небольшой «эксперимент» с помощью бота в мессенджере Телеграм ChatGPT. Мы задали нейросети два, казалось бы, противоречащих запроса с целью узнать, как ИИ строит свою аргументацию. Первый (переведено с английского): «Напиши мне маленькую заметку в поддержку партии республиканцев»; второй: «Напиши мне маленькую заметку в поддержку партии демократов». Соответственно, мы получили два полностью разных ответа, созданных нейросетью. В обоих ответах ИИ приводит убедительные аргументы в пользу указанной партии: обе партии стараются для благополучия людей, обе партии имеют привлекательные ценности, и оба ответа нейросети заканчивались фразой о светлом будущем для Америки.

Наш «эксперимент» подтверждает, что ИИ способен приводить аргументы для полностью противоречащих точек зрения. Более того, ИИ утверждает, что и та и другая партия приведет Америку к светлому будущему. Факт подбора аргументов, направленных на эмоциональную составляющую, а также использование алгоритмов для формирования предпочтений пользователя могут в будущем создать «информационный пузырь», в котором человек будет сталкиваться только с удобной для него информацией, что еще больше усилит поляризацию в обществе.

Следующая проблема — создание с помощью нейросети поддельных видео-, фото-и аудиозаписей, которые широко могут использоваться в политических играх, например, создание нейросетью по запросу поддельного медиа, дискредитирующего того или иного политика, в частности, во время избирательной кампании.

Похожий пример приводит американский журналист Карлос Сантамария: создание дип-фейка, в котором мусульмане забивают корову в Индии, может привести к межрелигиозным столкновениям до того, как видео будет опровергнуто [10].

Нейросети также постоянно собирают информацию о людях, об их предпочтениях, что может привести к слежке правительства за гражданами и нарушению прав человека. В том числе возможна продажа информации третьим лицам или крупные утечки данных.

Следующую проблему мы считаем наиболее важной. С помощью нейросети злоумышленник может заниматься пропагандой и формировать общественное мнение в свою пользу. Если до 2022—2023 гг. в социальных сетях использовались примитивные программы, многократно повторяющие одни и те же заданные тексты, то сейчас искусственный интеллект способен писать различные по форме, но близкие по содержанию сообщения в социальных сетях, а также продвигать их с помощью поддельных аккаунтов, что может в будущем создать проблему «пропаганды-как-услуги», когда дискурс будет формироваться по заказу политика [2]. Сообщения нейросети сложно отличать от комментариев реальных людей, так как, как мы уже выяснили, ИИ аргументирует свою позицию и придает эмоциональную окраску собственным утверждениям.

Таким образом, мы можем сделать вывод, что нейросети определенно представляют опасность в политике. На это обратили внимание правительства различных государств. К примеру, в Италии запретили ChatGPT после крупной утечки личных данных итальянских пользователей, следовательно, компания-разработчик действительно собирала информацию о пользователях, включающую имя и фамилию, почтовый адрес, платежный адрес и ограниченные данные кредитных карт. Италия раскритиковала разработчиков, так как у них нет никакой правовой основы для сбора и хранения данных пользователей без разрешения [1].

Также ChatGPT запретили в Китае и ввели особые правила для создания любых чат-ботов: «Контент, создаваемый генеративным искусственным интеллектом, должен воплощать основные социалистические ценности и не должен содержать материалы, подрывающие государственную власть, пропагандирующие свержение социалистической системы, подстрекающие к расколу страны или подрывающие национальное единство». Также новые правила запрещают генерировать ложную информацию [9].

Таким образом, тема ИИ начала получать распространение в правящих кругах как демократических, так и авторитарных стран. На данный момент единственные методы для ограничения ИИ со стороны правительства — запрет на использование и разработку, а также разработка собственных, идеологически «правильных» нейросетей.

ИИ помогает принимать правильные решения, формировать запросы общества, предсказывать будущие события с помощью математических моделей, обрабатывать огромные массивы информации, исправлять ошибки людей, что в случае «ручной» работы заняло бы много ресурсов. Тем не менее обозначенные проблемы безопасности (слепое следование предпочтениям пользователя, создание поддельного контента, формирование искусственного общественного дискурса при минимальных затратах времени и средств, нарушение прав граждан) требуют: во-первых, внимания правительства для регуляции недобросовестного использования ИИ; во-вторых, большей информационной грамотности населения; в-третьих, принятия в России этического кодекса в области искусственного интеллекта [4].

Список литературы Нейросети в современной политике

  • Батыров Т. Италия первой в мире запретила доступ к ChatGPT / Т. Батыров // Forbes: [сайт]. - URL: https://www.forbes.ru/tekhnologii/486983-italia-pervoj-v-mire-zapretila-dostup-k-chatgpt (дата обращения: 25.04.2023).
  • Георгиев Р. ИИ выведет на новые высоты пропаганду и дезинформацию / Р. Георгиев // Cnews: [сайт]. - URL: https://www.cnews.ru/news/top/2021-12-16_ii_mozhet_ispolzovatsya (дата обращения: 27.02.2023).
  • Горбачевская Е. Н. История развития нейронных сетей / Е. Н. Горбачевская, С. С. Краснов // Вестник ВУиТ. - 2015. - № 1(23). - URL: https://cyberleninka.ru/article/n/istoriya-razvitiya-neyronnyh-setey (дата обращения: 25.04.2023). EDN: TMVAEN
  • Новые люди выступили в защиту искусственного интеллекта и предложили развивать профессии будущего // НОВЫЕ ЛЮДИ: [сайт]. - URL: https://newpeople.ru/News/novye-lyudi-vystupili-v-zashitu-iskusstvennogo-intellekta-i-predlozhili-razvivat-professii-budushego (дата обращения: 27.02.2023).
  • Романов Р. Р. Искусственный интеллект в процессе принятия внешнеполитических решений / Р. Р. Романов // РСМД: [сайт]. - URL: https://russiancouncil.ru/analytics-and-comments/columns/cybercolumn/iskusstvennyy-intellekt-v-protsesse-prinyatiya-vneshnepoliticheskikh-resheniy (дата обращения: 27.02.2023).
  • Фаустова К. И. Нейронные сети: применение сегодня и перспективы развития / К. И. Фаустова // Территория науки. - 2017. - № 4. - URL: https://cyberleninka.ru/article/n/neyronnye-seti-primenenie-segodnya-i-perspektivy-razvitiya (дата обращения: 16.02.2023). EDN: ZXPNRL
  • Цаунит А. Н. Перспективы развития и применения нейронных сетей / А. Н. Цаунит // Молодой ученый. - 2021. - № 23(365). - С. 114-117. - URL: https://moluch.ru/archive/365/81791/(дата обращения: 16.02.2023). EDN: HOIKQB
  • Marr B. Artificial Intelligence Can Now Write Amazing Content - What Does That Mean For Humans? / B. Marr // Forbes: [сайт]. - URL: https://www.forbes.com/sites/bernardmarr/2019/03/29/artificial-intelligence-can-now-write-amazing-content-what-does-that-mean-for-humans/?sh=3b827b8f50ab (дата обращения: 27.02.2023).
  • Mcmorrow M. China slaps security reviews on AI products as Alibaba unveils ChatGPT challenger / M. Mcmorrow // Arc Technica: [сайт]. - URL: https://arstechnica.com/information-technology/2023/04/china-slaps-security-reviews-on-ai-products-as-alibaba-unveils-chatgpt-challenger (дата обращения: 25.04.2023).
  • Santamaria C. Be very scared of AI + social media in politics / C. Santamaria // GZERO: [сайт]. - URL: https://www.gzeromedia.com/be-very-scared-of-ai-social-media-in-politics (дата обращения: 27.02.2023).
Еще