Эволюция нормативного регулирования использования искусственного интеллекта в Соединенных Штатах Америки на примере федеральных административных учреждений

Бесплатный доступ

В статье анализируется эволюция нормативного регулирования использования искусственного интеллекта (ИИ) в США на примере федеральных административных учреждений. Рассматриваются этапы развития политики в отношении ИИ, начиная с исследований потенциала и рисков при администрации Обамы, через усиление инвестиций и внедрение ИИ в госуправление при администрации Трампа, до акцента на безопасности, этичности и доверии к ИИ при администрации Байдена. Проводится сравнительный анализ подходов США и России к регулированию ИИ, выделяются различия в приоритетах и механизмах. Рассматривается опыт других стран (Китай, ОАЭ) в развитии и регулировании ИИ. Подчеркивается важность международного сотрудничества и необходимость для России выработки собственной стратегии, обеспечивающей технологический суверенитет и защиту прав человека.

Еще

Искусственный интеллект, нормативное регулирование, федеральные административные учреждения сша, эволюция политики ии, безопасность ии, международное сотрудничество, сравнительный анализ

Короткий адрес: https://sciup.org/140310539

IDR: 140310539   |   DOI: 10.52068/2304-9839_2025_72_1_162

Текст научной статьи Эволюция нормативного регулирования использования искусственного интеллекта в Соединенных Штатах Америки на примере федеральных административных учреждений

В настоящее время мир находится на пороге Четвертой промышленной революции и вступления в новую технологическую эпоху. От особенностей нормативного правового регулирования разработки, внедрения и использования новых технологий во многом зависит то, какие страны смогут оказаться в авангарде нового уклада, что существенно повлияет на их роль на международной арене. Одной из таких фундаментальных технологий является искусственный интеллект (ИИ), который, по всей видимости, уже в ближайшем будущем в значительной степени переопределит и видоизменит многие процессы в национальных экономиках, общественных отношениях и политической сфере (в частности, в государственном и муниципальном управлении, а также в оказании государственных услуг самого различного рода).

В текущих условиях обострившейся геополитической конкуренции на пороге новой технологической эпохи США позиционируют себя как абсолютного лидера в развитии и практическом использовании искусственного интеллекта. Однако это «лидерство», как и развитие многих научно-технологических направлений до ИИ, строится на эффекте «интеллектуального пылесоса», т. е. на масштабном целенаправленном выкачивании наиболее подготовленных и талантливых кадров в данной сфере из других стран мира, для чего в США давно созданы соответствующие правовые механизмы, позволяющие выявить такие кадры в ходе разнообразных научных, учебных и иных программ и мероприятий и обеспечить им многочисленные стимулы для переезда в США (вплоть до ускоренного и упрощенного процесса предоставления им гражданства). Напротив, Российская Федерация в своей стратегии развития ИИ ставит одним из ключевых принципов такового развития технологический суверенитет, т. е. «обеспечение необходимого уровня самостоятельности Российской Федерации в области искусственного интеллекта» [1].

В условиях необходимости обеспечения стимулов для сохранения собственных высококвалифицированных кадров, занятых в изучении, разработке и внедрении ИИ, а также успешного конкурирования за мировые кадры в этой сфере на международной арене следует проанализировать политику США в данной сфере, а именно нормативное правовое обеспечение изучения, разработки и внедрения ИИ.

В действующем законодательстве США кодифицировано достаточно развернутое определение ИИ, это:

«(1) Любая искусственная система, которая выполняет задачи в изменяющихся и непредсказуемых обстоятельствах без значительного человеческого контроля или которая может учиться на опыте и повышать производительность при воздействии наборов данных.

  • (2)    Искусственная система, разработанная в компьютерном программном обеспечении, физическом оборудовании или другом контексте, которая решает задачи, требующие человеческого восприятия, познания, планирования, обучения, коммуникации или физических действий.

  • (3)    Искусственная система, разработанная для того, чтобы думать или действовать как человек, включая когнитивные архитектуры и нейронные сети.

  • (4)    Набор методов, включая машинное обучение, который разработан для аппроксимации когнитивной задачи.

  • (5)    Искусственная система, разработанная для того, чтобы действовать рационально, включая интеллектуального программного агента или воплощенного робота, который достигает целей, используя восприятие, планирование, рассуждение, обучение, коммуникацию, принятие решений и действие» [8].

Определение ИИ, данное в Стратегии развития искусственного интеллекта в России, более лапидарно, однако, в отличие от более описательного определения в указе Байдена, учитывает все ключевые концепты в данной области: «искусственный интеллект – комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека.

Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе в котором используются методы ма- шинного обучения), процессы и сервисы по обработке данных и поиску решений» [1]. Достоинством данного определения следует считать учет как сути описываемой комплексной технологии, так и непосредственно составляющих ее технических элементов.

В 2019 году в США была сформирована команда исследователей, перед которыми была поставлена задача изучить и систематизировать имеющийся опыт применения ИИ федеральными административными учреждениями США. В рамках подготовки доклада «Управление алгоритмом: Искусственный интеллект в федеральных административных учреждениях» ученые из Стэндфордского и Нью-Йоркского университетов направили запросы в 142 самых крупных (более 400 сотрудников) федеральных административных учреждения (в их число не вошли военные и разведывательные федеральные учреждения). Результаты показали, что, по состоянию на 2019 год, лишь 45 % учреждений имели некий опыт экспериментов с теми или иными инструментами, основанными на ИИ или машинном обучении (МО), при этом более чем в половине случаев (53 %) эти инструменты разрабатывались не сторонними ИТ-фирмами, а собственными ИТ-специалистами этих учреждений. Ученые отметили, что именно инструменты, разработанные в самих учреждениях, оказываются лучше приспособленными для сложных управленческих задач за счет постоянного взаимодействия ИТ-специалистов собственно с теми сотрудниками учреждения, которые будут использовать в своей работе данный инструментарий [3].

Следует отметить также, что в ноябре 2020 года Исполнительное управление Президента США опубликовало меморандум для глав федеральных учреждений и агентств, в котором, апеллируя к Указу № 13859, призывало их воздерживаться от регулирующих и иных действий, способных создать ненужные преграды для развития ИИ [7]. В декабре 2020 года Д. Трамп издал еще один указ, связанный с регулированием ИИ, а именно с принципами, которыми должно руководствоваться федеральное правительство при разработке, закупке и внедрении инструментов, основанных на алгоритмах ИИ: законопослушность и уважение к ценностям США; целенаправленность и ориентация на результат; точность, надежность и эффективность; безопасность и устойчивость к внешним воздействиям; доступность для понимания; ответственность и отслеживаемость; регулярность наблюдения; прозрачность; ответственность за надлежащее использование [4].

С приходом к власти Дж. Байдена повестка использования ИИ в государственном управлении и оказании государственных услуг населению продолжила развиваться. Отправной точкой нового витка развития стал доклад, подготовленный Национальной комиссией по безопасности по искусственному интеллекту, на первой странице которого было заявлено следующее: «Америка не готова защищаться или конкурировать в эпоху ИИ. Это суровая реальность, с которой нам придется столкнуться. И именно эта реальность требует всеобъемлющих действий всей страны» [5]. Новые ориентиры этого развития были заданы в нескольких документах, в первую очередь, в проекте Билля о правах в сфере искусственного интеллекта, опубликованном Управлением по научно-технической политике Белого дома в октябре 2022 года. Перечень принципов, которыми федеральные административные учреждения должны теперь пользоваться при разработке и внедрении алгоритмов ИИ, несколько сократился, и приоритеты его изменились. Так, новый перечень включал лишь пять принципов:

  • – безопасность (защита пользователей от небезопасного ИИ);

    – справедливость (защита пользователей от алгоритмической дискриминации, которую алгоритм мог усвоить, к примеру, обучаясь на скошенной тем или иным образом выборке данных);

    – конфиденциальность данных (защита пользователей от нарушений в использовании их персональных данных, а также от злонамеренного использования таких данных);

    – объяснимость (защита права пользователя на то, чтобы знать о применении алгоритмов ИИ и понимать, как и почему это использование затрагивает данного конкретного пользователя);

    – альтернативность (защита права пользователя на то, чтобы отказаться от использования ИИ и прибегнуть к помощи соответствующего сотрудника-человека в решении своей проблемы) [2].

Однако данный документ в настоящее время носит декларативный характер и не имеет юридической силы.

В мае 2023 года последовала новая серия исправлений и дополнений в Национальный стратегический план НИОКР по ИИ. В частности, было выделено девятое приоритетное направление, связанное с выработкой подходов к осуществлению международного сотрудничества в исследованиях ИИ [9].

В настоящее время наиболее дискуссионным остается законодательное регулирование генеративного ИИ. Так, по состоянию на сентябрь

2024 года, в Палате представителей Конгресса США находится на рассмотрении проект закона о запрете создания и распространения дипфейков, имитирующих конкретных людей [6]; в случае, если этот законопроект будет принят, это создаст важный прецедент, касающийся авторского права индивида на голос и образ, которое продолжает действовать и после смерти индивида.

Политика США в отношении ИИ прошла три этапа. При Обаме (2015–2016) проводились исследования потенциала и рисков ИИ, формировались стратегические планы развития, акцент делался на научных исследованиях, этических вопросах и безопасности, особенно в военной сфере. При Трампе (2019–2020) приоритетом стало удержание лидерства США: были увеличены инвестиции, стимулировались инновации и государственно-частное партнерство, началось внедрение ИИ в государственное управление. Однако практические достижения были ограничены. При Байдене (с 2021) фокус сместился на безопасность, этичность и доверие к ИИ: были установлены принципы для федеральных агентств, усилено международное сотрудничество для привлечения специалистов, активно разрабатываются руководства и рекомендации по внедрению и управлению рисками, связанными с ИИ. В отличие от России, где защита прав человека была изначальным принципом развития ИИ, в США к этому вопросу подошли позже. США по-прежнему компенсируют нехватку собственных специалистов за счет привлечения иностранных кадров. Политика администрации Дж. Байдена носит более осторожный характер – помимо колоссальных возможностей, связанных с применением ИИ, осознаются и значительные риски, в том числе при применении алгоритмов и систем ИИ в деятельности федеральных административных учреждений. Фокус политики в сфере ИИ смещается в сторону предотвращения рисков и обеспечения безопасности, для чего предполагается выработка целого ряда гайдлайнов и руководств, основанных в том числе на анализе лучших практик, применяемых учреждениями. В России же защита прав и свобод человека от нарушений в процессе разработки, внедрения и использования ИИ закладывалась изначально как основополагающий принцип, постулированный в Стратегии развития ИИ [1].

В отличие от США, где развитие регулирования ИИ носило эволюционный характер и прошло через несколько этапов с разными приоритетами, Россия изначально сделала акцент на этических аспектах и защите прав человека. Рос- сийский подход к регулированию ИИ отличается также применением механизма экспериментальных правовых режимов (ЭПР). Этот механизм позволяет апробировать инновационные технологии, включая ИИ, в контролируемой среде, адаптируя законодательство к динамике технологического развития.

Китайский опыт демонстрирует эффективность централизованного подхода к развитию ИИ, поднимает вопросы, связанные с балансом между инновациями и контролем, а также с защитой прав и свобод граждан в условиях широкого применения ИИ. Этот опыт важен для анализа и может быть учтен другими странами при разработке собственной политики в отношении ИИ.

Опыт Объединенных Арабских Эмиратов (ОАЭ) в области регулирования и развития ИИ выделяется своим амбициозным и прагматичным подходом. ОАЭ стали одной из первых стран, принявших национальную стратегию по искусственному интеллекту (UAE Strategy for Artificial Intelligence) [10], стремясь стать мировым лидером в этой области к 2031 году. Стратегия направлена на интеграцию ИИ во все сферы жизни, от государственного управления и экономики до здравоохранения и образования.

В отличие от подхода США, сосредоточенного на привлечении иностранных талантов, ОАЭ инвестируют в развитие собственных кадров и образовательных программ в области ИИ. Создаются специализированные исследовательские центры и лаборатории, а также внедряются образовательные программы по ИИ на всех уровнях образования.

ОАЭ активно используют ИИ для модернизации государственного управления и повышения эффективности оказания государственных услуг. Например, внедряются системы на основе ИИ для обработки больших данных, автоматизации рутинных операций и предоставления персонализированных услуг гражданам. В Дубае был назначен министр по искусственному интеллекту, что подчеркивает важность этой технологии для страны.

В отличие от строгого регулирования в Китае, ОАЭ придерживаются более гибкого подхода, создавая благоприятную регуляторную среду для развития ИИ и привлечения инвестиций. В частности, ОАЭ разрабатывают этическую рамку для использования ИИ, которая должна гарантировать безопасность, прозрачность и ответственность при применении ИИ-систем.

Опыт ОАЭ демонстрирует, что стратегический подход к развитию ИИ, сочетающий госу- дарственную поддержку, инвестиции в образование и создание благоприятной регуляторной среды, может способствовать быстрому прогрессу в этой области и трансформации различных секторов экономики и общественной жизни. Этот подход может быть интересен для других стран, стремящихся эффективно использовать потенциал ИИ для своего развития.

Опыт регулирования ИИ в Китае, Индии и странах ЕАЭС демонстрирует схожие тенденции: приоритет национального развития ИИ, государственная поддержка исследований и разработок, а также балансирование между стимулированием инноваций и обеспечением безопасности. Наблюдается усиление международного сотрудничества в сфере ИИ между этими странами, способствующее обмену опытом и совместной разработке эффективных подходов к регулированию.

Сравнительный анализ показывает дивергенцию стратегий развития ИИ: США делают ставку на глобальную конкуренцию за таланты, в то время как Россия фокусируется на развитии внутреннего потенциала. Российский подход, основанный на ЭПР, обеспечивает гибкость регулирования внедрения ИИ, адаптируя законодательство к динамике технологического развития. Укрепление сотрудничества России с дружественными странами в сфере ИИ способствует формированию альтернативной модели регулирования, ориентированной на национальные интересы и технологический суверенитет.

В долгосрочной перспективе это может привести к формированию различных стандартов и подходов к регулированию ИИ на глобальном уровне. В данных условиях России необходимо активно участвовать в международном диалоге, отстаивая свои интересы и способствуя формированию справедливой и эффективной системы глобального управления ИИ.

В то же время в вопросе обеспечения развития ИИ достаточным числом кадров достаточного уровня квалификации США продолжают делать основную ставку на вытягивание таких кадров из других стран по всему миру. Напротив, Россия делает ставку на собственную базу, которую обеспечивает система качественного среднего и высшего образования, а также значительный фундаментальный научный задел. Это означает, что у России есть значительный потенциал, который она может и будет задействовать в подготовке специалистов по ИИ – как ученых, так и практиков. Нетрудно предположить, что эти кадры станут (и уже являются) объектом охоты США, и их обучение, подготовка и профессиональная де- ятельность должны быть максимально защищены от этой охоты, в том числе путем разработки соответствующих правовых норм.

Статья научная