Анализ рисков возникновения предубежденности искусственного интеллекта в имплементации публичных правоотношений: опыт зарубежных стран и перспективы административного права России
Автор: Атабеков Атабек Рустамович
Журнал: Общество: политика, экономика, право @society-pel
Рубрика: Право
Статья в выпуске: 5, 2023 года.
Бесплатный доступ
Технологии искусственного интеллекта являются одним из основных движущих технических решений, способных кардинально трансформировать действующий общественный уклад и публичные правоотношения. Цель статьи - провести сравнительный анализ актуальных подходов по преодолению предубежденности искусственного интеллекта в контексте выполнения административной функции органов власти зарубежных стран и России с последующим формулированием правовых мероприятий, требующих регулятивного закрепления. Предмет исследования - нормативные акты и иные документы, регламентирующие вопросы функционирования искусственного интеллекта в сфере публичных правоотношений России и других государств, академические публикации по рассматриваемой проблематике. Методология исследования интегрирует методы познания, включая диалектический, системный, структурно-функциональный, герменевтический, сравнительно-правовой, формально-юридический (догматический) и т. д. Полученные результаты могут найти отражение в законодательной и правоприменительной практике России в целях минимизации рисков нарушения конституционных прав граждан при обработке данных искусственного интеллекта в публично-правовом секторе.
Искусственный интеллект, сравнительное правовое исследование применения искусственного интеллекта, публичные правоотношения, информационное право, предубежденность искусственного интеллекта, безопасный искусственный интеллект, публичное право
Короткий адрес: https://sciup.org/149143031
IDR: 149143031 | DOI: 10.24158/pep.2023.5.22
Текст научной статьи Анализ рисков возникновения предубежденности искусственного интеллекта в имплементации публичных правоотношений: опыт зарубежных стран и перспективы административного права России
Актуальность применения технологии искусственного интеллекта (ИИ) для целей публичного права находит отражение на уровне как наднациональных организаций1, так и национальных стратегий разных стран (каталогизировано ОЭСР)2. В рамках исследования предлагается рассмотреть опыт ЮАР, США, Испании и России в области теоретических подходов к обеспечению автономного принятия решения ИИ для целей административного права, а также практические ситуации некорректной работы алгоритмов ИИ и правовых последствий для общества.
Общая дефиниция алгоритмизированного принятия решения для целей публичного права подразумевает под этим процессом полную или частичную автоматизацию роли людей, принимающих решения, с использованием алгоритмов и машинного обучения. Машинное обучение, в свою очередь, представляет собой процесс компьютерного обучения, позволяющий делать прогнозы с применением шаблонов и корреляций в наборах данных без дополнительного участия разработчика (Cobbe, 2019: 639–640).
Говоря об алгоритмизированном принятии решений для целей административного права ЮАР, необходимо обратиться к разделу 33 Конституции Южно-Африканской Республики 1996 г., предоставляющему каждому право на принятие административных мер, которые являются законными, разумными и справедливыми с процедурной точки зрения. Закон № 3 о содействии административному правосудию от 2000 г. был принят для того, чтобы наполнить это право дополнительным содержанием и установить основания для пересмотра административных реше-ний3. Эти основания одновременно служат цели информирования лиц, принимающих решения, о стандартах, которых они должны придерживаться при принятии своих решений.
Простым примером полностью автоматизированного процесса принятия решений в Южной Африке является новая политика в отношении зачисления учащихся в школы Гаутенга4, где поданная заявка родителей ребенка обрабатывается полностью системой на основании удаленности школы от предполагаемого места жительства, работы родителей, количества детей в семье и т. д.
С точки зрения базовых положений принятия решений в контексте личной информации необходимо отметить Закон № 4 о защите личной информации от 2013 г.5, который запрещает принятие административного решения с юридическими последствиями или существенным воздействием на субъектов данных, которые были приняты исключительно на основе автоматической обработки личной информации. Однако в данном законе имеются исключения, предусмотренные в ст. 71 для обстоятельств, связанных с эффективностью системы уголовного правосудия, и если существует закон или кодекс поведения, который включает меры безопасности для надлежащей защиты интересов субъектов данных.
Говоря о правоприменительной практике, нельзя не отметить заложенный в Законе № 3 принцип рациональности и разумности административного решения (раздел 6(2)(f)(ii), который был использован судом в рамках рассмотрения дела Carephone (Pty) Ltd против Marcus NO36 (Carephone)). В рамках указанного дела суд определил необходимость установить объективную, рациональную связь между материалами, доступными лицу, принимающему решение, и его результирующим решением, чтобы оно было разумным6.
В контексте административной юстиции необходимо отметить судебное решение Южной Африки по делу Foodcorp (Pty) Ltd против заместителя генерального директора Департамента по вопросам окружающей среды и туризма7. В рамках указанного дела рассматривалась обоснованность математической формулы, применяемой для распределения прав на рыбный промысел.
В ходе дела было установлено, что служащие не принимали собственное решение при использовании алгоритма, а возлагали данную функцию на алгоритм. Однако суд не стал вдаваться в детали работы алгоритма и порядка обработки его данных, признав необоснованным использование указанной математической модели.
Дополнительным кейсом в области обеспечения эффективной интеграции ИИ в сферу публичной власти и административного права является соблюдение принципа разумности и соразмерности, представленного в судебной практике ЮАР в деле совета школы Бель-Порто против руководства провинции Западный Кейп1. В рамках указанного дела проводилась проверка принятого решения и уровня ущемленных интересов, как следствие – разумности принятого решения в контексте его последующей легитимности. Для целей алгоритмизированного принятия решений необходимо понимать, что данный принцип разумности может быть использован обеими сторонами процесса и его технический аспект потребует более высокой степени готовности к анализу и экспертизе со стороны органов судебной власти.
Для административного права США нужно отметить недавно представленный отчет ACUS, который содержит перечень аспектов и проблем в области применения технологий ИИ органами исполнительной власти2. Комплексные исследования показывают, что гражданское и политическое сообщество США отмечает необходимость административного контроля ИИ и производных технологий (Zhang, Dafoe, 2019: 3–4). При этом сам процесс внедрения ИИ в деятельность органов власти находится в активной фазе, однако большая часть информации о ней носит закрытый характер3.
Отчет ACUS фиксирует следующие тезисы:
-
1) набор инструментов искусственного интеллекта правительства разнообразен и охватывает почти весь комплекс федеральных органов власти;
-
2) разработка ИИ для публичных и административных целей значительно усложняется по сравнению с аналогами из частного сектора;
-
3) ИИ для административных целей создает серьезные проблемы с подотчетностью;
-
4) действия ИИ могут серьезно влиять на остальные ветви власти.
Примечательно, что в качестве одного из предложений в отчете обозначена необходимость ослабления презумпции против возможности пересмотра исполнительных решений, зафиксированной Верховным судом в деле Хеклер против Чейни4.
Дополнительный правоприменительный кейс из феномена ИИ проистекает из того, что требуется высокая адаптивность законодательства и ведомства к технологическому прогрессу, и наоборот, высокая адаптивность ИИ к быстрому пересмотру своих алгоритмов с учетом изменения регулирующих требований5. Например, Комиссия по ценным бумагам и биржам США (SEC) использует контролируемый алгоритм обучения для прогнозирования мошенничества на основе прошлых обращений в SEC6. Пул обращений со временем увеличивается, что может привести к изменениям в модели по мере ее разработки и развертывания (Lemos, 2017: 932).
В отчете также упоминается проблема предвзятости данных, поскольку используются большие наборы данных, подобные тем, которые обладают существенным потенциалом для систематической дискриминации, особенно по признаку уязвимых групп. В этой ситуации показательны судебная практика в отношении Агентства по страхованию от безработицы штата Мичи-ган7 и практика компании «Амазон»8. В последнем случае, даже после обнаружения проблемы и устранения конкретных упоминаний дискриминации из рассмотрения, система продолжала делать несправедливые выводы на основе данных.
Большое внимание было уделено тому, как федеральные агентства должны регулировать коммерческое использование ИИ1. Были высказаны опасения по поводу риска чрезмерного регулирования со стороны этих организаций2.
Однако недавние исследования показывают, что прогресс, достигнутый в регулировании использования ИИ федеральными агентствами, на сегодняшний день ограничен3. В конце 2016 г. администрация Б. Обамы выпустила отчет о перспективах ИИ под названием «Подготовка к будущему искусственного интеллекта»4 в тандеме с сопутствующим Национальным стратегическим планом исследований и разработок в области искусственного интеллекта и иными последующими документами в сфере регулирования ИИ в США5. Администрация Д. Трампа добилась прогресса в федеральном ответе на разработку ИИ, предприняла шаги по организации и регулированию систем, развертываемых государственными учреждениями в соответствии с Указом № 138596 о сохранении лидерства Америки в области искусственного интеллекта и Указом № 13960, изданным в декабре 2020 г., о содействии использованию надежного искусственного интеллекта в федеральном правительстве7.
Указанные документы инициировали общегосударственный процесс разработки руководства по регулированию приложений ИИ на макроуровне. Поскольку исполнительная власть борется с юридическими последствиями новых технологий, разработка ИИ в административных учреждениях остается в зачаточном состоянии (Coglianese, Ben-Dor, 2021: 793–794; Lehr, Ohm, 2017).
Таким образом, можно отметить, что для указанной страны вопрос предубежденности ИИ, равно как социальный эффект от его применения со стороны общества, а также общий правоприменительный вектор являются одним из значительных факторов сдерживания ИИ. Одним из очевидных решений выступает формирование и возложение на централизованный орган вопроса регламентации ИИ для публичных целей или изменение процедурных аспектов, закрепленных в Законе об административных процедурах8.
Говоря об опыте Испании в области интеграции ИИ в сферу публичных правоотношений и исполнения административных процедур, необходимо учитывать, что созданы стратегические условия на уровне Европейского парламента9, в том числе в части формирования инструментов полностью автономного принятия решений10. Так, ИИ может трансформировать различные аспекты деятельности правительства, включая взаимодействие с гражданами, предоставление услуг, разработку государственной политики и процесс принятия решений (Sun, Medaglia, 2019: 373–375).
В части локальных инициатив нужно отметить Цифровую стратегию Испании до 2025 г.11 и Испанскую стратегию исследований и разработок в области искусственного интеллекта12. В этой стране наряду с политико-стратегическим измерением цифрового администрирования есть регулятивно-нормативная составляющая. В 2010 г. вступили в силу два королевских указа: Национальная схема оперативной совместимости и Национальная схема безопасности. Документы «присоединились» к соответствующим техническим стандартам и заложили основу для обмена данными между государственными администрациями в соответствии с необходимыми нормами безопасности1.
В 2015 г. вступили в силу два закона: Закон № 39/2015 Общей административной процедуры государственного управления2 и Закон № 40/2015 Правового режима государственного сек-тора3. Эти документы нацелены на обеспечение права и обязанности граждан взаимодействовать с государственными органами через цифровые носители, от простейших административных процедур до систем идентификации и электронных подписей. В частности, Закон № 40/2015 установил положение об использовании электронных средств во внутренней деятельности государственного сектора, обеспечив возможность реализации автоматизированных административных действий. Следовательно, впервые было предусмотрено использование таких технологий, как ИИ, в государственном секторе Испании.
В настоящее время правовая система Испании в контексте автоматизированного принятия решения подразумевает возможность того, что исполнительные органы власти могут применять практику принятия алгоритмизированных решений с помощью доступных электронных средств. Тем не менее использование ИИ в процессе принятия публичных решений требует рассмотрения ряда элементов: этапов административной процедуры, в которые могут вмешиваться алгоритмы; мотивации публичных решений; порядка взаимодействия органов власти с ИИ. Примечательно, что данная регламентация ИИ при всех белых зонах правового (Martínez, 2020: 18–20) регулирования является единственной базисной точкой административной регламентации (Solé, 2018: 2–3).
Однако отсутствие конкретного положения не освобождает от применения остальных положений административного права, а также принципов прозрачности, открытого правительства и надлежащего управления (Sierra Morón, 2021).
В контексте правоприменительной практики необходимо отметить следующее: европейские суды постановили4, что алгоритм является общедоступной информацией, если хранится у администрации (Pilving, 2023). Данный тезис нашел иное отражение в допуске программы ИИ (ChatGPT) с открытым кодом к формированию судебного решения, о чем открыто декларируется в тексте документа, принятого судом г. Картахена5. Однако суд особо отметил, что контроль за его действиями (конечный результат действий ИИ) оставался полностью за человеком.
В аспекте наличия предубежденности со стороны ИИ, выступающего представителем публичного лица, необходимо выделить следующий кейс. В ноябре 2017 г. канцелярия государственного секретаря по энергетике выпустила программное обеспечение BOSCO для компаний, поставляющих электроэнергию. Цель алгоритма – определить правомочность граждан, обращающихся за финансовой помощью при оплате электроэнергии6.
НКО Civio7, получив большое количество обращений о некорректной работе алгоритма от заявителей (более 500 тыс. граждан), выступила в качестве административного истца и запросила у правительства исходный код BOSCO, чтобы выяснить причину ошибок. Запрос прошел через три разных министерства, прежде чем попал в Комитет по прозрачности и надлежащему управлению, который отказался поделиться кодом, заявив, что это нарушит положения об авторском праве (хотя программное обеспечение было разработано самой государственной администрацией). В июле 2019 г. Civio подала административную жалобу в Верховный суд Испании, утверждая, что исходный код любой системы ADM, используемой государственной администрацией, должен быть обнародован по умолчанию точно так же, как обнародуются юридические тексты8.
На уровне доктринальных исследований ученые Испании отмечают проблематику предвзятости алгоритмов как на основе гендерной предвзятости (Caliskan et al., 2017), так и в части маргинальных и уязвимых групп в силу низкого качества данных или узкой выборки (Arnan, 2021). Основное решение, предлагаемое специалистами, – повышение качества данных, принятых в базе систем машинного обучения, открытый доступ к базам данных ИИ, используемых для государственного сегмента, а также активное привлечение научного сообщества (Fernández-Aller et al., 2021: 49–51).
На уровне регулятивных подходов в отношении ИИ в России необходимо отметить основополагающий Указ Президента России, который рассматривает комплексные проблемы имплементации ИИ, в том числе в сферу публичных правоотношений. Вопросы предубежденности и сохранения баланса интересов предлагается решать через призму гибкого и взвешенного правового регулирования, положения которого должны быть разработаны до 2024 г.1
Отечественные ученые-юристы отмечают положительные тренды в указанной области с точки зрения регулирования и общей правоприменительной практики. С.Г. Чубукова выделяет феномен создания единой федеральной информационной системы, содержащей сведения о населении Российской Федерации, оператором которой выступает ФНС, и подчеркивает положительные подходы к реализации данной системы в отличие от общей практики GDPR, принятой в ЕС (Чубукова, 2020: 214).
-
Е. В. Алферова отмечает ключевую проблему предвзятости и «черного ящика», если речь идет об ИИ. Данный тезис проистекает из общего рассмотрения правоприменительной практики в мире при использовании полностью автоматизированных систем принятия решений для органов власти (Алферова, 2021: 59–60).
А.К. Жарова в сравнительно-правовом исследовании вопросов цифрового профилирования человека в ЕС и России отмечает необходимость обеспечения регламентации деятельности компаний, занимающихся цифровым профилированием граждан, и предлагает учесть в них положения контроля со стороны субъектов за обрабатываемыми персональными данными и их корректировкой в случае несоответствия действительности. Этот подход должен быть нацелен на обеспечение недискриминационной, справедливой и прозрачной выборки данных для последующего использования ИИ (Жарова, 2020: 85–86).
Говоря о публично правовом аспекте ИИ, нужно отметить труды О.А. Ястребова и Э.В. Талапиной. О.А. Ястребов, детально изучая феномен ИИ и возможной предубежденности в процедуре принятия решений в контексте имплементации публичных правоотношений, одним из первых в России указал на необходимость совершенствования заложенных принципов административного права и формирования надлежащих инструментов в КоАП РФ (Ястребов, 2018а: 325), равно как и на необходимость создания инструментов по выделению конструкции электронного лица и отдельной правосубъектности ИИ (Ястребов, 2018б: 49–50). Э.В. Талапина отмечает, что при всех достоинствах технологии ИИ сохраняются существенные конституционные риски нарушения базовых прав человека при условии слабого технического исполнения и правовой регламентации деятельности ИИ в контексте большого массива данных (2020: 35–36).
На основании вышеизложенного можно сформулировать универсальные предложения для последующего регулирования ИИ и минимизации рисков предубежденности применительно к реализации и внедрению алгоритмов действий ИИ.
-
1. В любых действиях ИИ и при алгоритмической обработке большого массива данных для публично-правовых целей должны соблюдаться принципы соразмерности и разумности.
-
2. Необходимо сохранение универсального принципа оспаривания действия ИИ и предоставления развернутых комментариев эксплуатирующего его органа власти в частном порядке.
-
3. Публикация баз данных и обнародование алгоритма обработки данных ИИ для публичных целей могут снизить риск предубежденности и предвзятости при принятии решений. Однако, по нашему мнению, такой подход сформирует поведенческую адаптацию и исказит принцип функционирования контрольно-надзорной деятельности.
-
4. На текущем этапе развития технологии ИИ мы говорим о технологическом ассистенте как об «узком ИИ»2, и перекладывание административных функций органа власти является некорректным с точки зрения как права (необходимы легализация правового статуса и регламентация деятельности ИИ), так и человеческого контроля (риски предубежденности ИИ из-за обвинительной практики ведомства, малый массив данных правоприменения в отношении редко используемых норм права и т. д.).
-
5. Трансформация административного права с учетом появления феномена «сверх-ИИ»1 в ближайшем будущем потребует оперативного изменения права путем либо введения заградительных административных барьеров, либо формирования иных инструментов гибкого нормотворчества и правоприменения.
Список литературы Анализ рисков возникновения предубежденности искусственного интеллекта в имплементации публичных правоотношений: опыт зарубежных стран и перспективы административного права России
- Алферова Е.В. Алгоритмизированное принятие решения и право на его интерпретацию // Социальные и гуманитарные науки. Отечественная и зарубежная литература. Серия 4: Государство и право. 2021. № 1. С. 49-61. https://doi.org/10.31249/rgpravo/2021.01.05.
- Жарова А.К. Правовое обеспечение цифрового профилирования деятельности человека // Вестник Южно-Уральского государственного университета. Серия: Право. 2020. Т. 20, № 2. С. 80-87. https://doi.org/10.14529/law200214.
- Талапина Э.В. Алгоритмы и искусственный интеллект сквозь призму прав человека // Журнал российского права. 2020. № 10. С. 25-39. https://doi.org/10.12737/jrl.2020.118.
- Чубукова С.Г. Защита прав субъекта персональных данных при автоматизированном принятии решений // Право и государство: теория и практика. 2020. № 3 (183). С. 212-214.
- Ястребов О.А. Искусственный интеллект в правовом пространстве // Вестник Российского университета дружбы народов. Серия: Юридические науки. 2018а. Т. 22, № 3. С. 315-328. https://doi.org/10.22363/2313-2337-2018-22-3-315-328.
- Ястребов О.А. Правосубъектность электронного лица: теоретико-методологические подходы // Труды Института государства и права Российской академии наук. 2018б. Т. 13, № 2. С. 36-55.
- Arnanz A.S. Decisiones Automatizadas y Discriminación: Aproximación y Propuestas Generales // Revista General de Derecho Administrativo. 2021. Vol. 56.
- Caliskan A., Bryson J.J., Narayanan A. Semantics Derived Automatically from Language Corpora Contain Human-Like Biases // Science. 2017. Vol. 356, iss. 6334. P. 183-186. https://doi.org/10.1126/science.aal4230.
- Cobbe J. Administrative Law and the Machines of Government: Judicial Review of Automated Public-Sector Decision-Making // Legal Studies. 2019. Vol. 39, iss. 4. P. 636-655. http://doi.org/10.2139/ssrn.3226913.
- Coglianese C., Ben-Dor L.M. AI in Adjudication and Administration // Brooklyn Law Review. 2021. Vol. 86, iss. 3.
- Fernández-Aller C., Velasco A., Riesco A., Pastor-Escuredo D., Pickin S., Salgado J., Ausín T. An Inclusive and Sustainable Artificial Intelligence Strategy for Europe Based on Human Rights // IEEE Technology and Society Magazine. 2021. Vol. 40, iss. 1. P. 46-54. https://doi.org/10.1109/MTS.2021.3056283.
- Lehr D., Ohm P. Playing with the Data: What Legal Scholars should Learn about Machine Learning // University of California, Davis Law Review. 2017. Vol. 51. P. 653-717.
- Lemos M.H. Democratic Enforcement? Accountability and Independence for the Litigation State // Cornell Law Review. 2017. Vol. 102. P. 929-1002.
- Martínez A.C. ¿Son Fiables las Decisiones de las Administraciones Públicas Adoptadas por Algoritmos? // European Review of Digital Administration & Law. 2020. Vol. 1, iss. 1-2. P. 18-36.
- Pilving I. Guidance-Based Algorithms for Automated Decision-Making in Public Administration: The Estonian Perspective // CERIDAP. 2023. Vol. 1. https://doi.org/10.13130/2723-9195/2023-1-105.
- Sierra Morón S. de la. Control Judicial de los Algoritmos: Robots, Administración y Estado de Derecho // Revista de Jurisprudencia. 2021. Vol. 1.
- Solé J.P. La Prevención de Riesgos de Mala Administración y Corrupción, la Inteligencia Artificial y el Derecho a Una Buena Administración // Revista Internacional de Transparencia e Integridad. 2018. Vol. 6.
- Sun T.Q., Medaglia R. Mapping the Challenges of Artificial Intelligence in the Public Sector: Evidence from Public Healthcare // Government Information Quarterly. 2019. Vol. 36, iss. 2. P. 368-383. https://doi.org/10.1016/j.giq.2018.09.008.
- Zhang B., Dafoe A. Artificial Intelligence: American Attitudes and Trends // SSRN Electronic Journal. 2019. http://doi.org/10.2139/ssrn.3312874.