Нейросети в современной политике

Автор: Федулова А.В., Щегунов Н.А.

Журнал: Симбирский научный Вестник @snv-ulsu

Рубрика: Социология и политология

Статья в выпуске: 2 (48), 2023 года.

Бесплатный доступ

Статья посвящена истории создания нейросетей, которая тесно связана с двумя науками: философией и математикой. Философия внесла существенный вклад в основу нейросетей. Математика способствовала созданию искусственного интеллекта благодаря исследованиям в таких разделах, как логика, теория вычислений, теория вероятностей. В статье проводится краткий анализ принципа работы нейросети, рассматриваются возможности искусственного интеллекта в современной политике и приводятся предложения для минимизации ущерба для общества от использования нейросетей. Сегодня вопросом разработки нейросетей заняты как ученые, так и крупнейшие технологические компании. Нейросети могут представлять опасность в политике, однако они обладают большими возможностями и поэтому широко используются в данной сфере, например, генерация текста, сбор информации, моделирование и т. д. Искусственный интеллект помогает принимать правильные решения, формировать запросы общества, предсказывать будущие события с помощью математических моделей, обрабатывать огромные массивы информации, исправлять ошибки людей, что в случае «ручной» работы заняло бы много ресурсов.

Еще

Нейросеть, искусственный интеллект, политика, общество, манипулирование, избирательные инструменты, тенденции в политике, угроза

Короткий адрес: https://sciup.org/14130921

IDR: 14130921

Текст научной статьи Нейросети в современной политике

Нейросети активно развиваются, их применение возможно в разных областях — они используются в экономике, интернет-сер-висах, социологии, робототехнике, медицине и во многих других сферах, а также, что наиболее важно для нас, в политике [7]. Исследования искусственного интеллекта (ИИ) проводятся в крупнейших компаниях мира, таких, например, как Google и Yandex [6]. Однако с растущими возможностями растет и опасность использования нейросетей, поэтому данная тема становится актуальной.

Цель статьи — рассмотреть, какие риски для политики и общества приносит широкое использование нейросетей. Чтобы понять, как искусственный интеллект способен влиять на политику, мы считаем необходимым рассмотреть историю создания нейросетей и основной принцип их работы.

Философия оказала большое влияние на создание искусственного интеллекта. Еще такие философы, как Раймунд Луллий, Томас Гоббс и Рене Декарт, говорили о соотношении разума и вычислений. В XX веке на основе идей Людвига Виттгенштейна и Бертрана Рассела Венский кружок во главе с Рудольфом Карнапом создал концепцию логического позитивизма, в рамках которой знания характеризуются с помощью логических теорий. Также Рудольфом Карнапом и Карлом Хемпе-лем в 1967 году была создана вычислительная процедура для получения знаний из элементарных опытов [3]. Впервые мышление было напрямую связано с вычислительным процессом. Таким образом, благодаря философии были созданы важные положения рационального познания, которые легли в основу нейросетей.

Главный вклад математиков в создание искусственного интеллекта состоял в изучении следующих разделов:

— логика;

— теория вычислений;

— теория вероятностей.

Соответственно, особое значение имели работы:

— Готтлоба Фреге (создал логику первого порядка, наиболее фундаментальную систему представления знаний);

— Алана Тьюринга (выяснил, какие функции могут быть вычисленными);

— Томаса Байеса (предложил правило обновления вероятностей) [3].

Прорыв произошел в 1950-х гг. Дональд Хебб предложил новый алгоритм обучения, Фрэнк Розенблатт изобрел перцептрон и разработал первую нейронную сеть, т. е. вычислительную модель, созданную по подобию нейронных сетей в человеческом мозге. С середины XX века ученых заинтересовал вопрос искусственных нейронных сетей.

В 1970-х гг. Пол Дж. Вербос предложил метод обратного распространения ошибки, благодаря которому нейросети «научились» обрабатывать ошибки.

В 1982 году Джон Хопфилд изобрел первую ассоциативную нейронную сеть, тем самым заложив основы ассоциативной памяти в изучении ИИ. В 1980-х гг. Стивеном Гросс-бергом была создана сеть адаптивного резонанса, что решило проблему пластичности — изменения или уничтожения предыдущих результатов обучения. Джеффри Хинтоном в свою очередь была создана многослойная нейронная сеть, которая преодолела проблемы в обучении. Таким образом, ученые с середины XX века решали новые проблемы искусственного интеллекта и развивали нейросети. Сегодня вопросом разработки нейросетей заняты как ученые, так и крупнейшие технологические компании.

Из-за принципа самообучения нейронные сети могут исполнять огромное количество задач. Мы разберем те, которые могут использоваться в политической деятельности.

Во-первых, это сбор и анализ большого объема данных о пользователях с целью информирования правительства или корпорации. С помощью нейросети правительство или корпорация может собирать личную ин- формацию граждан (в том числе через анализ предпочтений) и формировать единый образ той или иной социальной группы для информирования об интересах населения. В аналитических центрах различных стран, например Китая, искусственный интеллект постоянно помогает экспертам — запоминает и распознает биометрику граждан, составляет различные политические модели и т. д. [5].

Во-вторых, нейросети используются для совершенствования алгоритмов поиска Yandex и Google [6]. Данные алгоритмы постоянно улучшаются и подстраиваются под определенного пользователя, что также может использоваться в политике — поиск в сети может скрывать определенные ссылки, выдавая на основе анализа более релевантные или выгодные правительству или корпорации.

В-третьих, нейросети могут создавать на основе запроса пользователя изображения и обрабатывать фото. Хотя сейчас в большинстве случаев изображение, созданное нейросетью, можно отличить от настоящей фотографии, мы можем видеть огромный прогресс в создании цифрового контента. Основными нейросетями для данных целей являются DALLE-E от Microsoft и Midjourney.

В-четвертых, нейросети способны создавать аудиофайлы на основе речи людей, которые имитируют голос, акцент, интонации и эмоции.

В-пятых, нейросети могут писать тексты в разных стилях с минимальным участием человека, в том числе формализованные документы, художественные книги и стихотворения с помощью Natutal Language Generation (NLG). В 2019 году несколько крупных изданий, таких как The New York Times, Associated Press, Reuters, Washington Post и Yahoo!, использовали NLG для написания своих текстов [8]. А в 2023 году депутат Госдумы Алексей Нечаев, лидер партии «Новые люди», использовал текст, написанный ChatGPT (нейросеть, способная «общаться» с человеком), для выступления в Думе [4].

В-шестых, создание дипфейков — видео, в которых лица или тела людей были изменены, чтобы они казались кем-то другими [10].

Некоторые из возможностей нейросетей широко используются в политике уже сейчас, например, генерация текста, сбор информации, моделирование и т. д. С развитием нейросетей появляется все больше поводов для опасения. С первого взгляда обыденные функции, такие как генерация фото по запросу, могут показаться полностью безобидными, тем не менее, мы видим определенную угрозу в применении искусственного интеллекта в политической сфере.

Наибольшая угроза от искусственного интеллекта исходит как от инструмента недобросовестных политиков и корпораций. ИИ не обладает собственным сознанием, и весь вред или польза от него зависит только от людей.

Нами был проведен небольшой «эксперимент» с помощью бота в мессенджере Телеграм ChatGPT. Мы задали нейросети два, казалось бы, противоречащих запроса с целью узнать, как ИИ строит свою аргументацию. Первый (переведено с английского): «Напиши мне маленькую заметку в поддержку партии республиканцев»; второй: «Напиши мне маленькую заметку в поддержку партии демократов». Соответственно, мы получили два полностью разных ответа, созданных нейросетью. В обоих ответах ИИ приводит убедительные аргументы в пользу указанной партии: обе партии стараются для благополучия людей, обе партии имеют привлекательные ценности, и оба ответа нейросети заканчивались фразой о светлом будущем для Америки.

Наш «эксперимент» подтверждает, что ИИ способен приводить аргументы для полностью противоречащих точек зрения. Более того, ИИ утверждает, что и та и другая партия приведет Америку к светлому будущему. Факт подбора аргументов, направленных на эмоциональную составляющую, а также использование алгоритмов для формирования предпочтений пользователя могут в будущем создать «информационный пузырь», в котором человек будет сталкиваться только с удобной для него информацией, что еще больше усилит поляризацию в обществе.

Следующая проблема — создание с помощью нейросети поддельных видео-, фото-и аудиозаписей, которые широко могут использоваться в политических играх, например, создание нейросетью по запросу поддельного медиа, дискредитирующего того или иного политика, в частности, во время избирательной кампании.

Похожий пример приводит американский журналист Карлос Сантамария: создание дип-фейка, в котором мусульмане забивают корову в Индии, может привести к межрелигиозным столкновениям до того, как видео будет опровергнуто [10].

Нейросети также постоянно собирают информацию о людях, об их предпочтениях, что может привести к слежке правительства за гражданами и нарушению прав человека. В том числе возможна продажа информации третьим лицам или крупные утечки данных.

Следующую проблему мы считаем наиболее важной. С помощью нейросети злоумышленник может заниматься пропагандой и формировать общественное мнение в свою пользу. Если до 2022—2023 гг. в социальных сетях использовались примитивные программы, многократно повторяющие одни и те же заданные тексты, то сейчас искусственный интеллект способен писать различные по форме, но близкие по содержанию сообщения в социальных сетях, а также продвигать их с помощью поддельных аккаунтов, что может в будущем создать проблему «пропаганды-как-услуги», когда дискурс будет формироваться по заказу политика [2]. Сообщения нейросети сложно отличать от комментариев реальных людей, так как, как мы уже выяснили, ИИ аргументирует свою позицию и придает эмоциональную окраску собственным утверждениям.

Таким образом, мы можем сделать вывод, что нейросети определенно представляют опасность в политике. На это обратили внимание правительства различных государств. К примеру, в Италии запретили ChatGPT после крупной утечки личных данных итальянских пользователей, следовательно, компания-разработчик действительно собирала информацию о пользователях, включающую имя и фамилию, почтовый адрес, платежный адрес и ограниченные данные кредитных карт. Италия раскритиковала разработчиков, так как у них нет никакой правовой основы для сбора и хранения данных пользователей без разрешения [1].

Также ChatGPT запретили в Китае и ввели особые правила для создания любых чат-ботов: «Контент, создаваемый генеративным искусственным интеллектом, должен воплощать основные социалистические ценности и не должен содержать материалы, подрывающие государственную власть, пропагандирующие свержение социалистической системы, подстрекающие к расколу страны или подрывающие национальное единство». Также новые правила запрещают генерировать ложную информацию [9].

Таким образом, тема ИИ начала получать распространение в правящих кругах как демократических, так и авторитарных стран. На данный момент единственные методы для ограничения ИИ со стороны правительства — запрет на использование и разработку, а также разработка собственных, идеологически «правильных» нейросетей.

ИИ помогает принимать правильные решения, формировать запросы общества, предсказывать будущие события с помощью математических моделей, обрабатывать огромные массивы информации, исправлять ошибки людей, что в случае «ручной» работы заняло бы много ресурсов. Тем не менее обозначенные проблемы безопасности (слепое следование предпочтениям пользователя, создание поддельного контента, формирование искусственного общественного дискурса при минимальных затратах времени и средств, нарушение прав граждан) требуют: во-первых, внимания правительства для регуляции недобросовестного использования ИИ; во-вторых, большей информационной грамотности населения; в-третьих, принятия в России этического кодекса в области искусственного интеллекта [4].

Список литературы Нейросети в современной политике

  • Батыров Т. Италия первой в мире запретила доступ к ChatGPT / Т. Батыров // Forbes: [сайт]. - URL: https://www.forbes.ru/tekhnologii/486983-italia-pervoj-v-mire-zapretila-dostup-k-chatgpt (дата обращения: 25.04.2023).
  • Георгиев Р. ИИ выведет на новые высоты пропаганду и дезинформацию / Р. Георгиев // Cnews: [сайт]. - URL: https://www.cnews.ru/news/top/2021-12-16_ii_mozhet_ispolzovatsya (дата обращения: 27.02.2023).
  • Горбачевская Е. Н. История развития нейронных сетей / Е. Н. Горбачевская, С. С. Краснов // Вестник ВУиТ. - 2015. - № 1(23). - URL: https://cyberleninka.ru/article/n/istoriya-razvitiya-neyronnyh-setey (дата обращения: 25.04.2023). EDN: TMVAEN
  • Новые люди выступили в защиту искусственного интеллекта и предложили развивать профессии будущего // НОВЫЕ ЛЮДИ: [сайт]. - URL: https://newpeople.ru/News/novye-lyudi-vystupili-v-zashitu-iskusstvennogo-intellekta-i-predlozhili-razvivat-professii-budushego (дата обращения: 27.02.2023).
  • Романов Р. Р. Искусственный интеллект в процессе принятия внешнеполитических решений / Р. Р. Романов // РСМД: [сайт]. - URL: https://russiancouncil.ru/analytics-and-comments/columns/cybercolumn/iskusstvennyy-intellekt-v-protsesse-prinyatiya-vneshnepoliticheskikh-resheniy (дата обращения: 27.02.2023).
  • Фаустова К. И. Нейронные сети: применение сегодня и перспективы развития / К. И. Фаустова // Территория науки. - 2017. - № 4. - URL: https://cyberleninka.ru/article/n/neyronnye-seti-primenenie-segodnya-i-perspektivy-razvitiya (дата обращения: 16.02.2023). EDN: ZXPNRL
  • Цаунит А. Н. Перспективы развития и применения нейронных сетей / А. Н. Цаунит // Молодой ученый. - 2021. - № 23(365). - С. 114-117. - URL: https://moluch.ru/archive/365/81791/(дата обращения: 16.02.2023). EDN: HOIKQB
  • Marr B. Artificial Intelligence Can Now Write Amazing Content - What Does That Mean For Humans? / B. Marr // Forbes: [сайт]. - URL: https://www.forbes.com/sites/bernardmarr/2019/03/29/artificial-intelligence-can-now-write-amazing-content-what-does-that-mean-for-humans/?sh=3b827b8f50ab (дата обращения: 27.02.2023).
  • Mcmorrow M. China slaps security reviews on AI products as Alibaba unveils ChatGPT challenger / M. Mcmorrow // Arc Technica: [сайт]. - URL: https://arstechnica.com/information-technology/2023/04/china-slaps-security-reviews-on-ai-products-as-alibaba-unveils-chatgpt-challenger (дата обращения: 25.04.2023).
  • Santamaria C. Be very scared of AI + social media in politics / C. Santamaria // GZERO: [сайт]. - URL: https://www.gzeromedia.com/be-very-scared-of-ai-social-media-in-politics (дата обращения: 27.02.2023).
Еще
Статья научная