Децентрализованная модель регулирования искусственного интеллекта и автоматизированных систем принятия решений в США

Автор: Яковлев Д.Е.

Журнал: Теория и практика общественного развития @teoria-practica

Рубрика: Право

Статья в выпуске: 12, 2025 года.

Бесплатный доступ

Настоящая работа посвящена анализу регулирования искусственного интеллекта на федеральном уровне в США. В отличие от Европейского союза, в США отсутствует единый (комплексный) законодательный акт, а регулирование строится на принципе децентрализации и использования имеющихся полномочий. В работе проанализирована сама система и ее основные составляющие, в частности, указы президента, акты, регулирующие государственные закупки, законы и акты «мягкого права». Подчеркивается противоречивость «лоскутного подхода», сторонники которого видят в нем возможность саморегуляции рынка и стимулирования инноваций, в то время как критики указывают на фрагментарность, правовую неопределенность и риски. На примере сменивших друг друга указов президента показана изменчивость федеральной политики. Делается вывод о том, что такая модель, несмотря на адаптивность, не может быть рекомендована для применения в отечественных условиях.

Еще

Искусственный интеллект, США, регулирование ИИ, децентрализованная модель, «лоскутное регулирование», исполнительные указы, государственные закупки, федеральные агентства, «мягкое право»

Короткий адрес: https://sciup.org/149150369

IDR: 149150369   |   УДК: 342:004(73-41)   |   DOI: 10.24158/tipor.2025.12.36

Текст научной статьи Децентрализованная модель регулирования искусственного интеллекта и автоматизированных систем принятия решений в США

Саранск, Россия, ,

,

частном, так и в государственном секторах1 усиливает необходимость формирования нормативных рамок, которые обеспечили бы баланс между безопасностью, инновациями и защитой прав человека.

На международном уровне наиболее обсуждаемыми являются модели регулирования ЕС, Китая и США, поскольку эти страны являются тремя ключевыми драйверами в создании и регулировании ИИ. Европейский союз принял комплексный нормативный акт AI Act (2024)2, охватывающий практически все сферы общественной жизни3. Китай, в свою очередь, развивает модель централизованного государственно-ориентированного подхода, через законы и регламенты, контролирующие разработку и контент, генерируемый ИИ.

Американская модель воспринимается как менее структурированная, «использующая децентрализованные отраслевые нормативные акты» (Al-Maamari, 2025) или как отдающая «приоритет рыночным инновациям с минимальными нормативными ограничениями» (Kulothungan, Gupta, 2025), вместе с тем именно США формируют глобальную экосистему ИИ, поскольку доминирующие на рынке компании – OpenAI, Google, Microsoft и проч. ‒ являются американскими.

Особенность модели регулирования ИИ в Соединенных Штатах Америки заключается в том, что на федеральном уровне отсутствует всеобъемлющий закон, подобный AI Act. Управление рисками, связанными с ИИ, осуществляется через взаимодействие федеральных агентств, ранее принятых отраслевых законов, указов президента и «мягкого права».

Одновременно с этим на уровне отдельных штатов разрабатываются собственные нормы, регулирующие приватность, использование ИИ в сфере найма, цифрового контента и т. п. Это привело к появлению так называемой «лоскутной системы»4 в регулировании ИИ, создающей вариативность правил на территории страны.

Однако при этом одной из ключевых идей американской системы является алгоритмическая подотчетность (algorithmic accountability), которая предполагает ответственность разработчика за последствия работы системы. Хотя закон об алгоритмической подотчетности так и не приняли (в 2019, 2022 и 2023 гг.)5, его принципы активно реализуются в правоприменении.

Впрочем, как отмечается некоторыми авторами, на практике этот принцип сталкивается с фундаментальной проблемой – «необязательностью регулирования и фрагментарностью» (Landau et al., 2024).

Таким образом, американская модель представляет собой сочетание гибкости, инновационности, но в то же время и высокой фрагментарности. Для стремительного технологического развития это можно оценить положительно, но с позиции правовой определенности и защиты прав граждан такая ситуация вызывает довольно серьезные риски.

В таком контексте исследование регулирования искусственного интеллекта в США представляет определенный интерес с точки зрения некой схожести6 и возможности адаптировать лучшие решения для отечественного права.

Федеральный уровень. Политика принципов и ориентиров . Как отмечалось ранее, в США отсутствует единый нормативный акт, регулирующий сферу ИИ. Напротив, федеральное регулирование формировалось как длительный процесс накопления стратегических документов, программных актов и стандартов. Во многом это детерминируется самой американской политикоправовой системой, которая традиционно предпочитает меньшее вмешательство государства и использование уже существующих полномочий федеральных агентств.

С одной стороны, это позволяет гибко реагировать на стремительные технологические изменения, но с другой – создает фрагментарность. Как подчеркивалось в докладе Congressional

Research Service (CRS) (исследовательского института государственной политики Конгресса США), «федеральное законодательство, устанавливающее широкие регулирующие полномочия в отношении разработки или использования ИИ, или запрещающее его использование, не принято»1.

Одним из наиболее проработанных нормативных актов последних лет стал National Artificial Intelligence Initiative Act 20202.

Данный закон «предусмотрел скоординированную программу федерального правительства по ускорению исследований и применению искусственного интеллекта» (Maier, 2021) и ввел единую национальную систему управления ИИ-политикой. В частности, было создано NAIIO – национальное управление, задача которого ‒ «координировать исследования и разработки в области ИИ на федеральном уровне, а также сотрудничать с частным сектором, академией и другими заинтересованными сторонами»3. Ранее каждое агентство работало обособленно, что приводило к коллизиям, пробелам и конкурентным конфликтам.

Кроме того, закон заложил правовую основу для создания национальной сети институтов, занимающихся исследованием искусственного интеллекта, и, что наиболее важно, он задал государственный курс на доверенный ИИ. В частности, Национальный институт стандартов и технологий (NIST) обязали создать стандарты прозрачности ИИ, что стало основой для последующих инициатив: от NIST AI Risk Management Framework до указа Белого дома 2023 г. о безопасном ИИ.

Важность данного закона заключается в том, что он установил федеральную «систему координат», в рамках которой федеральные агентства получили право на разработку собственных мер и стандартов. Вместе с тем по своей природе он скорее является координационным – не вводит требований для частного сектора, ограничений на применение ИИ и проч., но системно организует инфраструктуру научной и административной поддержки.

Также необходимо повторить, что отличительной чертой федеральной политики в сфере ИИ является использование уже имеющихся полномочий федеральных агентств. В докладе CRS указывается: «Большая часть усилий США по регулированию в отношении ИИ была сосредоточена на оценке федеральными агентствами и обеспечении соблюдения существующих регулирующих полномочий»4. Например, FTC продолжает рассматривать вопросы, связанные с ИИ, на основании Раздела 5 FTC Act, Акта о добросовестной кредитной отчетности (FCRA) и Акта о равных кредитных возможностях (ECOA)5.

Это означает, что федеральные агентства применяют стандарты и нормы, которые действуют в их «традиционных областях», и интерпретируют ИИ как очередной технологический инструмент, подпадающий под действие общих правил (потребительского законодательства, не-дискриминации, безопасности продукции и т. п.). Это отражает характерный для США подход – избегать преждевременного создания системы вертикального регулирования и вместо этого адаптировать существующие механизмы.

Еще одним значимым источником регулирования ИИ на федеральном уровне являются президентские указы. Например, исполнительный указ 141106 (2023) впервые создал единую повестку по оценке рисков ИИ, поручив федеральным агентствам разработать стандарты безопасности, а NIST ‒ подготовить методики для тестирования языковых моделей7.

Указ требовал, чтобы федеральные агентства самостоятельно разрабатывали и внедряли инструменты оценки ИИ-систем не только перед выпуском, но и интегрировали их после внедрения, оценивая надежность и осуществляя постоянный мониторинг работы.

Кроме того, он указывал на необходимость оценки рисков ИИ-систем для критической инфраструктуры, биозащиты, кибербезопасности, ядерной энергетики – то есть охватывал потенциал ИИ быть использованным для серьезных угроз.

Исполнительный указ 14179 (2025)1 его отменил и, напротив, ориентировал правительство на максимальное сокращение барьеров, мешающих американскому лидерству в сфере ИИ, а также предписал отменить меры, установленные прежним указом. Вместе с «Миссией генезис»2 это стало переходом от осторожно-регулятивной к инновационно-ориентированной политике. Главная цель указа 14179 – минимизировать регуляторные барьеры, сократить бюрократию и ускорить развитие, внедрение и масштабирование ИИ-технологий.

Если прежняя политика уделяла больше внимания защите прав человека, приватности и борьбе с дискриминацией, то новый указ намеренно делает упор на технологическое первенство и минимизацию барьеров на пути к нему, что может негативно сказаться на уровне защищенности обычных людей.

С точки зрения системного анализа регулирования необходимо также отметить роль актов, которые регулируют государственные закупки в ИИ-сфере, представляющие собой теневое регулирование. Так, меморандум ОМВ М-25-22 (2025) «Обеспечение эффективного внедрения искусственного интеллекта в государственные органы»3 ввел требование, чтобы агентства использовали ИИ по принципам ответственности, прозрачности и соблюдения стандартов безопасности.

Его важность заключается в том, что он фактически формирует рынок – системы, которые не подходят под требования, не будут использоваться на федеральном уровне. Хотя документ не создает обязательств для разработчиков, он представляет собой «квазирегулирование», корректируя отрасль без прямого вмешательства.

Отдельного внимания заслуживают так называемые акты «мягкого права», представляющие собой рекомендательные документы, содержащие принципы и руководящие начала. Несмотря на свою необязательность, они имеют важное значение при разработке федеральных и локальных (на уровне штатов) законопроектов.

Наиболее значимым актом «мягкого права» является Blueprint for an AI Bill of Rights4. Он формирует ключевые принципы, которые влияют на разработку различных стандартов и будущее законодательство.

Безопасные и эффективные системы (Safe and Effective Systems) . Суть данного принципа заключается в том, что автоматизированные системы принятия решений (далее ‒ АСПР) должны разрабатываться и применяться так, чтобы быть безопасными для пользователей и эффективно выполнять поставленные задачи. В целом, можно отметить, что данный принцип разделяет с подходом ЕС продуктоориентированный взгляд на ИИ как на систему, а не просто источник решений.

Защита от алгоритмической дискриминации и несправедливых систем (Protection from Algorithmic Discrimination and Inequitable Systems) . Данный принцип фокусируется на равенстве на уровне сообществ (community-level equity). Вред должен оцениваться и устраняться не только на индивидуальном, но и на community-уровне, что актуально для политической повестки США, но, с нашей точки зрения, является излишним, поскольку равное отношение к индивидууму ‒ уже всеобъемлющий и базовый принцип.

Конфиденциальность данных (Data Privacy). Человек должен быть защищен от злоупотреблений при обработке и использовании персональных данных и иметь возможность контролировать, как его данные используются. По своей сути, это один из центральных принципов всего акта. Разработчики систем должны запрашивать разрешение на использование данных, уважать решение об отказе от сбора, а само использование данных может быть возможно, когда согласие предоставлено надлежащим образом и было осмысленно.

Информированность и понимание (Notice and Explanation). На наш взгляд, этот принцип наиболее важен. Человек должен знать, когда используется автоматизированная система, и иметь право на понятное объяснение того, почему в отношении него принято то или иное решение. В отличие от расплывчатого «права на объяснение» в европейских нормах или ограниченного требования в китайских, Blueprint предполагает предоставление документации на доступном простом языке, что может стать лучшим балансом между технической осуществимостью и полезностью информации.

Возможность выбора и право на отказ (Human Alternatives, Consideration, and Fallback) . Принцип означает, что у человека должно быть право выбора, например, отказаться от использования АСПР в отношении себя и обратиться к специалисту, когда это целесообразно. Это служит защитой прав, даtт свободу выбора и обеспечивает механизм исправления ошибок ИИ.

В научной среде отношение к Blueprint неоднозначное. «Blueprint формулирует пять принципов… но, будучи необязывающим документом (white paper), он излагает принципы и идеи…, а не конкретные требования и меры» (Lage et al., 2024).

С одной стороны, Blueprint сосредоточен на безопасности, справедливости, конфиденциальности и прочих важных ценностях, но не дает практического руководства по их реализации. В итоге их разработка в отрыве от применимости с инженерной точки зрения ведет к тому, что «либо принципы являются слишком гибкими, либо технически не реализуемыми» (Morley et al., 2021).

Как отмечают в литературе, Blueprint вышел гораздо менее амбициозным, чем задумывался, и представляет собой «набор принципов, который предполагает видение развития ИИ, но не содержит конкретных требований» (Hine, Floridi, 2023: 285).

Таким образом, Blueprint сыграл важную роль в формировании рамок и ориентиров, но его применение за счет необязательного характера является довольно ограниченным. Он задает системе базовые принципы, но пока не превращен в полноценный правовой механизм.

Подводя итоги американской модели, можно отметить следующее. На наш взгляд, отсутствие единого закона создает проблемы для достижения единства в государственной политике. Предоставленная разработчикам свобода, хоть и способствует развитию ИИ-систем, но создает угрозу нарушения прав человека и демонстрирует «системный управленческий разрыв» (Stetler, 2025).

Добровольный характер важнейших принципов создает опасность их игнорирования или лишь формального соблюдения со стороны частного сектора, а новая политика администрации 2025 г., в отсутствие сдерживающего ее закона, позволяет США доминировать на рынке ИИ за счет ослабления контроля в одной из наиболее опасных сфер.

Создание единого нормативного акта, напротив, приведет к снижению правовой неопределенности и повысит уровень доверия граждан к ИИ-моделям, что способствует динамике в этой сфере.

Главный аргумент защитников фрагментарного подхода сводится к тому, что отрасль предпринимает попытки к саморегулированию и излишнее вмешательство ведет к подавлению инноваций, что в условиях мировой конкуренции приведет к негативным последствиям для экономики и национальной безопасности (Cheong et al., 2024).

Например, этот подход отражен в системе государственных грантов, где, помимо денежного стимула, конкурсант может получить контракт с федеральным агентством, но для этого необходимо соблюдать указанные выше принципы при разработке ИИ-систем (Maier, 2021).

По нашему мнению, такой подход излишне развивает ложную дихотомию «регулирова-ние/инновации». Создание единого акта лишь закрепит рамки и затруднит возможность их обхода. Более того, ничего не мешает предусмотреть дифференцированный и гибкий подход к различным сферам, где применяется ИИ.

Впрочем, даже сторонники дифференцированного подхода указывают, что «контекстноспецифический подход более перспективен... но он требует дальнейшей проработки деталей, согласованных регуляторных целей и сопоставимых метрик, чтобы считаться… нормой» (Park, 2024: 220).

На данный момент в США федеральные агентства применяют имеющиеся федеральные законы, зачастую разработанные десятилетия назад. Вместе с тем современные системы ИИ состоят из миллиардов параметров, и прогнозировать их поведение в различных ситуациях крайне непросто. Сами данные, на которых обучается искусственный интеллект, могут обладать скрытыми предубеждениями, например, исходя из статистики преступности, открытых данных и проч.

Как показывалось ранее, значительная роль в регулировании сферы ИИ на федеральном уровне отводится администрации президента, что создает риск излишней концентрации власти, непрозрачности и повышает вероятность того, что решения принимаются в интересах краткосрочной политики или определенных лобби.

Несмотря на внешнюю привлекательность, гибкость и технологическое лидерство компаний в США, децентрализованная модель не может рассматриваться как образец для целенаправленного заимствования. Более перспективным видится путь разработки единого (возможно, рамочного) закона, который учитывал бы особенности применения систем искусственного интеллекта в различных сферах. Такой акт должен установить четкие принципы, распределение ответственности и закрепить базовый пакет прав индивида при взаимодействии с ИИ-системой. Это позволит преодолеть ключевые недостатки «лоскутного подхода» – фрагментарность, неопределенность и зависимость от политической конъюнктуры.