Искусственный интеллект как новое измерение информационных угроз
Автор: Соловьев М.М.
Журнал: Общество: политика, экономика, право @society-pel
Рубрика: Политика
Статья в выпуске: 3, 2025 года.
Бесплатный доступ
Проблематика искусственного интеллекта (ИИ) стала не только научной, но и практической, требующей продуманного подхода как со стороны государств, так и международного сообщества. В статье рассматриваются основные источники информационных угроз, а также анализируется возникновение нового измерения таких угроз в лице искусственного интеллекта, поскольку на сегодняшний день наблюдается явное смещение акцентов. Так, традиционно основным источником информационных угроз являлся человек, однако на современном этапе сам компьютер выступает в качестве субъекта принятия потенциально опасных для человечества решений. Анализируются экзистенциальные риски, связанные с развитием ИИ. Вниманию читателей также представлен SWOT-анализ ускоренного развития искусственного интеллекта как для отдельного государства, так и для международного сообщества.
Информация, информационная безопасность, информационные угрозы, искусственный интеллект, технологическая сингулярность
Короткий адрес: https://sciup.org/149148070
IDR: 149148070 | DOI: 10.24158/pep.2025.3.9
Текст научной статьи Искусственный интеллект как новое измерение информационных угроз
ционных систем, устаревание оборудования и носителей и пр. Сегодня же актуальным представляется обновление существующей типологии и добавление в нее еще одного основания – угроз со стороны искусственного интеллекта (ИИ).
В качестве основной задачи данного исследования автор рассматривает оценку рисков со стороны искусственного интеллекта. В ходе работы были использованы такие методы, как анализ источников и SWOT-анализ.
Вплоть до запуска Chat GPT в 2022 г. информационные угрозы (в том числе в глазах экспертного сообщества) не считались самыми серьезными среди глобальных опасностей для человечества – как правило, на первое место ставились военные конфликты, ядерное оружие, международный терроризм и нехватка природных ресурсов (Эриашвили и др., 2021). Информационная среда представлялась, в первую очередь, как источник возможностей для безграничного информационного обмена и коммуникации, а связанные с ней риски носили скорее антропогенный характер (онлайн-пиратство, распространение экстремистских материалов, кража персональной информации, интернет-мошенничество и пр.). В качестве субъектов информационного воздействия рассматривались государственные и криминальные структуры, общественные организации, микрогруппы и отдельные лица (Баришполец, 2013). Тенденция к пониманию информационных угроз как угроз, исходящих в основном со стороны человека в широком смысле слова, явно отображена в стратегических документах. Так, обращаясь к Доктрине информационной безопасности Российской Федерации 2016 г., можно выделить следующие источники информационных угроз:
-
– наращивание возможностей информационно-технического воздействия на информационную инфраструктуру в военных целях;
-
– расширение масштабов использования ИИ специальными службами с целью оказания информационно-психологического воздействия;
-
– использование механизмов информационного воздействия террористическими и экстремистскими организациями;
-
– возрастание масштабов компьютерной преступности;
-
– недостаточный уровень развития отечественных конкурентоспособных информационных технологий, а также низкая эффективность научных исследований в этой сфере;
-
– проблемы с кадровым обеспечением;
-
– стремление отдельных государств использовать технологическое превосходство для доминирования в информационном пространстве;
-
– отсутствие международно-правовых норм, регулирующих межгосударственные отношения в информационном пространстве1.
Как можно заметить, во всех восьми рассматриваемых в Доктрине ситуациях субъектом, со стороны которого исходит информационная опасность для страны, так или иначе предстает либо враждебно настроенное государство, либо группа лиц, либо отдельные преступники. Однако в данный момент можно констатировать, что к информационным угрозам технического и антропогенного характера добавились опасности совершенно нового характера, в которых сознательным, самостоятельным в своих решениях и потенциально враждебным к человеку субъектом выступает компьютер.
На сегодняшний день человечество столкнулось с дилеммой: впервые в истории мы, возможно, стоим на пороге разработки технологий, которые могут обладать интеллектом, превосходящим наш собственный. До сих пор такие достижения были ограничены конкретными нишами, например, такими как шахматы (в 1997 г. технология Deep Blue обыграла чемпиона мира Гарри Каспарова в матче из шести партий). В то же время для большинства пользователей подобные технологии были недоступны и потому казались безобидными. Но уже за первые два месяца с момента запуска ChatGPT его охват достиг 100 миллионов активных пользователей в месяц2. По мере разрастания сферы применения искусственного интеллекта стали приобретать контуры предполагаемые последствия в различных отраслях, например, в образовании. Уже сейчас можно наблюдать, что чат GPT стал буквально решением всех проблем для нерадивых школьников и студентов. Однако угроза заключается не только в снижении общего интеллектуального уровня населения. Сегодня вопрос состоит не в возможности негативного исхода, а в том, когда именно ИИ выйдет из-под контроля и начнет принимать самостоятельные вредоносные для человечества решения.
Примечательно, что, по мнению как прогнозистов общего профиля, так и экспертов в данной области, вероятность вымирания человечества к 2100 г. из-за искусственного интеллекта примерно в пять раз выше, чем из-за ядерных технологий (Mandel, 2023). Другие экзистенциальные риски, рассмотренные прогнозистами в недавнем исследовании, были оценены как еще более низкие, чем те, которые влечет за собой развитие и распространение ядерных технологий, что ставит искусственный интеллект на первое место в списке «наиболее вероятных» экзистенциальных рисков среди экспертов и компетентных специалистов широкого профиля1.
Компьютер лишен эмоций и гуманности. Ему не свойственны чувства сострадания, жалости и соблюдение этических норм. Он оперирует понятиями выгоды и целесообразности, что зачастую вступает в противоречие с тем, что представляет собой деятельность человека. В этом контексте расширение спектра сфер государственного регулирования, зависимых от алгоритмов искусственного интеллекта, неуклонно порождает рост числа «тонких мест» в системе, уязвимых по отношению к цифровой логике. Примером может служить сфера социальной защиты граждан, находящихся в затруднительном положении. Приходится иметь в виду, что в случае «экономической нерелевантности» мер поддержки той или иной группы, система может принять решение об отказе в помощи (если не о ликвидации группы как таковой), что может повлечь за собой фатальные последствия.
Более того, человеческие интересы и ценности далеко не всегда одинаковы во времени и пространстве, что сопровождается нелинейностью и неоднородностью развития общества. Создание системы, алгоритмы которой соответствовали бы актуальным целям конкретного государства на отдельно взятом промежутке исторического развития, может иметь непоправимые последствия для будущих поколений людей.
Стоит отметить, что проблематика развития искусственного интеллекта во многом напоминает дилемму ядерной безопасности: с одной стороны, государство не может абстрагироваться от общемирового технического прогресса и, в особенности, от технологического развития недружественных ему государств. Безусловно, достижение паритета в развитии искусственного интеллекта в современных условиях является важной задачей государства, о чем заявил В.В. Путин в своей речи 11 декабря 2024 г., открывая работу Международного альянса стран БРИКС в области развития ИИ2. С другой стороны, в общемировом масштабе «гонка ИИ», как и «гонка вооружений», может выйти далеко за рамки допустимых для сохранности человечества значений.
Как указывает шведский философ Ник Бостром в своей книге «Искусственный интеллект. Этапы. Угрозы. Стратегии», переход интеллектуальной системы с человеческого на сверхразумный уровень (а именно на уровень искусственного интеллекта) может происходить по трем сценариям, основанным на темпах его осуществления.
-
• Медленный взлет предполагает, что переход не форсируется и занимает десятилетия или даже века, а у международного сообщества в лице, в первую очередь, правительств, международных институтов, аналитических центров и ученого сообщества будет достаточно времени, чтобы осознать все риски и выработать механизмы амортизации и страховки, которые не позволят искусственному интеллекту нанести непоправимый вред человечеству. Аналогичным образом, когнитивные способности человека как вида успеют адаптироваться к новой сверхразумной реальности, предотвращая бездумное применение ставших доступными технологий.
-
• Быстрый взлет (или «технологическая сингулярность») может стать «черным лебедем», к которому никто не будет готов. Для развития ситуации по такому сценарию достаточно всего нескольких часов или дней, за которые сверхразумная система выйдет из-под контроля своих создателей, сумев каким-то образом обмануть их ожидания. Любой исход для человечества станет негативным и во многом будет зависеть от уже предпринятых к тому моменту амортизирующих мер (к примеру, вариант запуска программы самоуничтожения системы).
-
• Умеренный взлет, занимающий от нескольких месяцев до нескольких лет, так же, как и быстрый, не предполагает достаточную подготовленность мирового сообщества ни в техническом отношении, ни в плане координации своих действий в случае воплощения пессимистических прогнозов. Однако такой сценарий оставляет человечеству шанс для того, чтобы приспособиться к новым обстоятельствам за счет уже существующих механизмов (Бостром, 2016: 113–114).
Можно заметить, что существуют две точки зрения, с которых приходится рассматривать проблематику искусственного интеллекта. Вниманию читателя предлагаются результаты SWOT-анализа стратегии ускоренного развития искусственного интеллекта на уровнях государства и международного сообщества, представленные в таблицах 1 и 2 соответственно.
Таблица 1 ‒ Ускоренное развитие искусственного интеллекта с позиции государства1
Table 1 ‒ Accelerated Development of Artificial Intelligence from the Perspective of the State
Ускоренное развитие искусственного интеллекта с позиции государства |
|
Сильные стороны |
Экономический рост за счет наращивания эффективности производства; инновационные технологии и продукты, делающие страну более конкурентоспособной; улучшение оказываемых государством услуг за счет их персонификации; привлечение инвестиций из-за рубежа; |
Слабости |
недостаток специалистов необходимой квалификации; неравенство в доступе к технологиям; зависимость от иностранного программного обеспечения; проблемы, связанные с «машинной этикой»; правовые проблемы, обусловленные недостаточной отработанностью механизмов правового регулирования сферы ИИ |
Возможности |
Защита национального суверенитета; достижение ИИ-паритета; экономические возможности присутствия на международном информационнотехнологическом рынке; развитие новых секторов экономики; оптимизация процесса управления, решение проблем коррупции и непотизма; решение социальных проблем за счет достижений в сфере медицины, образования и пр. |
Угрозы |
Разрастание межгосударственного соперничества, «гонка ИИ»; риски технологической сингулярности, идущей вразрез с соображениями гуманности; широкомасштабная замена человеческого труда и снижение уровня занятости за счет автоматизации, рост социальной напряженности; разделение и закрепление социального неравенства |
Таблица 2 ‒ Ускоренное развитие искусственного интеллекта с позиции международного сообщества
Table 2 ‒ Accelerated Development of Artificial Intelligence from the Perspective of the International Community
Ускоренное развитие искусственного интеллекта с позиции международного сообщества |
|
Сильные стороны |
Ускорение инноваций; рост индустрий, связанный с повышением эффективности производства; укрепление сотрудничества в сфере наукоемкого производства и технологий |
Слабости |
Рост неравенства между развитыми и развивающимися странами; отсутствие стандартов и правового регулирования разработок и применения ИИ; использование ИИ для осуществления кибератак, террористических актов и военных действий; зависимость от ИИ, которая повышает «цену ошибки» в случае сбоя или неправильного функционирования |
Возможности |
Основание для международного сотрудничества и поиска совместных решений для проблем, связанных с ИИ; появление на трудовом рынке новых ниш для трудоустройства, снижение социальной напряженности; возможные прорывы в сфере медицины и экологии; решение глобальных проблем (изменение климата, эпидемии, бедность) |
Угрозы |
Риски автономного применения вооружений; нарушение личных свобод и прав человека в сфере защиты личных данных и приватности; использование ИИ с целью манипулирования и дезинформации; риски полной потери контроля над ИИ; проблемы трансгуманизма и этические вопросы, связанные с применением ИИ; непредсказуемое поведение и вероятность «быстрого взлета» при переходе к сверхразумной интеллектуальной системе |
Как можно видеть из таблиц 1 и 2, развитие искусственного интеллекта при всех очевидных преимуществах требует максимально точного выявления потенциальных опасностей и выработки мер для защиты общества. Безусловно, в тактическом отношении искусственный интеллект способствует увеличению эффективности процессов управления и производства, обработки данных и может стать источником инноваций в различных сферах жизни человека. В стратегическом отношении ИИ может сделать вклад в устойчивое развитие и повышение качества жизни людей. Однако в долгосрочной, а возможно, и среднесрочной перспективе потеря контроля над ним может повлечь за собой ряд этических и даже экзистенциальных проблем.
В заключение хотелось бы отметить, что всеобщая доступность ИИ уже перешла из плоскости научной фантастики в реальную жизнь. На современном этапе необходимо уделить внимание выработке мер для его безопасного использования и полного осознания возможных серьезных последствий. Искусственный интеллект стал беспрецедентным атрибутом новой эры, и как для отдельных государств, так и для мирового сообщества в целом важно быть готовыми к тому, что однажды он станет сверхразумной силой, превосходящей человека по всем параметрам и способной выйти из-под контроля.
Список литературы Искусственный интеллект как новое измерение информационных угроз
- Баришполец В.А. Информационно-психологическая безопасность: основные положения // Радиоэлектроника. Наносистемы. Информационные технологии. 2013. Т. 5, № 2. С. 62-104. EDN: RUPNEP
- Бостром Н. Искусственный интеллект. Этапы. Угрозы. Стратегии / пер. с англ. С. Филина. М., 2016. 490 с.
- Социально-психологические последствия аварии на АЭС "Фукусима-1" и информационная работа с населением / Г.В. Архангельская [и др.] // Авария на АЭС "Фукусима-1": радиологические последствия и уроки. СПб., 2021. С. 324-360. EDN: KDEHHV
- Фалеев М.И., Черных Г.С. Угрозы национальной безопасности государства в информационной сфере и задачи МЧС России в этой области деятельности // Стратегия гражданской защиты: проблемы и исследования. 2014. Т. 4, № 1 (6). С. 21-34. EDN: SCHGGZ
- Эриашвили Н.Д., Иванова Ю.А., Радченко Т.В. Глобальные проблемы человечества и пути их решения // Вестник Московского университета МВД России. 2021. № 1. C. 36-42. DOI: 10.24412/2073-0454-2021-1-36-42
- Mandel D.R. Artificial General Intelligence, Existential Risk, and Human Risk Perception // ArXiv. 2023. 14 p. DOI: 10.48550/arXiv.2311.08698