О некоторых аспектах взаимодействия искусственного интеллекта и права

Бесплатный доступ

В статье анализируется влияние цифровых технологий на право. Отмечается многоаспектность такого воздействия, являющегося причиной одновременно как положительных, так и отрицательных особенностей функционирования права в современной цифровой реальности. Научная значимость этой темы обусловлена необходимостью дальнейшего доктринального осмысления вопросов, связанных с развитием права в информационном обществе, и отсутствием соответствующих исследований. Особый акцент делается на текущем состоянии принципа верховенства права в условиях цифровой реальности. Автор отдельно отмечает важность данного принципа для создания положительного восприятия права гражданским обществом и совершенствования права как инструмента социального регулирования. Целью этой статьи является определение роли, которую играют современные цифровые технологии в развитии принципа верховенства права. Утверждается, что представления о праве и оценка его эффективности все больше зависят от того, как быстро оно адаптируется к новой мультимедийной эре. Вопрос влияния цифровых технологий на принцип верховенства права рассмотрен через анализ его содержательных элементов: подотчетности, прозрачности и защиты прав человека. Выводы, сделанные автором, могут быть учтены при дальнейшем теоретическом разборе процесса модернизации права в условиях новой технологической реальности, меняющей все важные сферы жизнедеятельности общества, и при предложении мер, направленных на повышение эффективности системы защиты прав человека и совершенствование действующего законодательства.

Еще

Принцип верховенства права, цифровые технологии, искусственный интеллект, защита прав человека, юридическая ответственность

Короткий адрес: https://sciup.org/147242651

IDR: 147242651   |   DOI: 10.14529/law230414

Текст научной статьи О некоторых аспектах взаимодействия искусственного интеллекта и права

Хотя современное общество переживает эпоху невероятных технологических достижений, еще нельзя говорить о полноценной имитации человеческого интеллекта искусственным интеллектом (далее – ИИ). Однако его развитие набирает обороты. Действительно, возможности ИИ для преобразования экономики, здравоохранения и образования, растут в геометрической прогрессии.

Не менее примечательно и влияние ИИ на право. Распространение цифровых технологий и активное использование ИИ поднимают ряд важных вопросов. Во-первых, каковы правовые границы применения ИИ и каким должно быть правовое регулирование в контексте ИИ? Во-вторых, как можно определить этические границы ИИ и к какому будущему он готовит человека? Эти два вопроса ни в коем случае не являются взаимоисключающими, хотя они и затрагивают разные аспекты одного и того же феномена [3, с. 71]. В контексте данной статьи ИИ и сопутствующие технологии рассматриваются сквозь призму права, которая представляет собой инструмент всеобъемлющего анализа ключевых точек соприкосновения ИИ и элементов правовой системы.

Первоначально неконтролируемое развитие ИИ вызвало опасения с точки зрения этичности использования подобных технологий [7, с. 6]. После этого внимание стали обращать и на юридические стороны развития ИИ [4, с. 90]. В частности это выразилось в разработке «Принципов искусственного интеллекта» (далее – Принципы) в 2019 году [11]. В упомянутом документе изложены пять взаимодополняющих положений, основанных на презумпции ориентированности ИИ на человека.

Принципы адресованы всем заинтересованным акторам в сфере ИИ, которые разрабатывают, внедряют, распространяют и используют данную технологию в частном и государственном секторах. Кроме того, в

Принципах зафиксировано, что ИИ – это средство повышения индивидуального и социального прогресса в контексте инноваций. Не менее значимым видится и определение критериев надежности ИИ. В частности надежность ИИ складывается из законности, этичности и устойчивости. Только сочетание в ИИ обозначенных свойств гарантирует, что его использование сообразуется с такими общеправовыми ценностями, как защита прав человека и укрепление демократии.

Ключевым фактором, способствующим пониманию воздействия ИИ на право, является принцип верховенства права. Вместе с ним в данную дискуссию вводится уникальный набор таких концепций, как разделение властей, демократическое принятие решений, недопустимость произвола со стороны представителей власти и справедливость правоприменения [9, с. 5].

Содержательно принцип верховенства права представлен двумя элементами. Первый заключается в принятии справедливых законов. Помимо этого важнейшего элемента, следует выделить доступность средств судебной защиты и транспарентность законодательного процесса [9, с. 6]. Названные элементы особенно эффективны для целей понимания основ использования ИИ. Они сводятся к подотчетности, прозрачности и защите прав человека. Анализ этих основ способствует выявлению прямого и косвенного воздействия ИИ на индивидуальном и коллективном уровнях в самых разнообразных контекстах, учитывая глубокое проникновение ИИ во все сферы государственной и общественной жизни.

Подотчетность (ответственность).

Принцип верховенства права предполагает, что любое лицо, независимо от общественного статуса и материального положения, может быть привлечено к ответственности в соответствии с законом. Вместе с этим закономерно возникает вопрос – если ИИ начнет принимать решения, которые ранее традиционно принимались государственными служащими (например, в области социального обеспечения или иммиграции), существует ли риск «дефицита подотчетности» и кого именно следует привлекать к ответственности - человека, запустившего ИИ (например, министра), или компанию-разработчика алгоритма?

Вторая проблема с ответственностью заключается в абсолютной непрозрачности процессов принятия решений ИИ [10, с. 43]. Это означает, что человек, не обладающий специальными знаниями, не может объяснить, как именно машина пришла к тому или иному выводу. Последствием этого выступает отсутствие у граждан актуальной информации, необходимой для оспаривания вынесенного решения, что рискует подорвать принцип верховенства права в двух направлениях: во-первых, не будет обеспечена доступность правосудия, и во-вторых, будет снижена эффективность судопроизводства [8, с. 8]. Возможность тщательно изучать процессы принятия решений крайне важна для понимания результатов этих процессов. Это является ключевым фактором стабильности судебной системы. Здесь также прослеживается связь подотчетности с принципом справедливости, охватывающим и проверяемость функционирования ИИ. Она заключается в выяснении того, кто и за что несет ответственность. Кроме того, по мере дальнейшего развития ИИ потенциально будет возрастать и значимость подотчетности.

Итак, в эпоху решений, принимаемых системами ИИ (полностью или частично), каким образом должен работать механизм установления ответственности? Наиболее предпочтительным вариантом видится совершенствование правового регулирования через призму принципа верховенства права, что может способствовать разработке максимально тщательных протоколов проверки алгоритмов, с помощью которых ИИ принимает решение. Неизбежным результатом этого выступает повышение уровня прозрачности и самого алгоритма.

Прозрачность (транспарентность).

Как подчеркивалось выше, понимание процессов принятия решения имеет принципиальное значение в первую очередь для защиты прав лица, желающего оспорить решение. Подать жалобу затруднительно, если человек не понимает конкретного алгоритма принятия решений либо не имеет доступа к данным, лежащим в его основе. В литературе это называется условиями «объяснимости» и «отслеживаемости» [2, с. 36]. Первое относится к сведениям, используемым для построения алгоритма, а второе требует, чтобы решения, принимаемые системами ИИ, могли контролироваться независимой стороной. Эти условия следует иметь в виду, учитывая, что дальнейший прогресс цифровых технологий неизбежно изменит алгоритмическую схему принятия решений ИИ [2, с. 20].

Однако алгоритмы, заложенные в автоматизированных системах принятия решений, обычно защищены режимом коммерческой тайны [1, с. 47]. Это создает значительные трудности для обеспечения понятности и предсказуемости этих систем. На институциональном уровне также возникают проблемы, так как сами государственные органы не имеют четкого представления о механизме функционирования систем ИИ, особенно о его технической составляющей. Тот факт, что эти системы затруднительны для понимания подавляющим большинством, вряд ли способен придать им свойство легитимности. Более того, техническая сложность не означает, что принятое решение обязательно приведет к оптимальному результату.

Защита основных прав человека.

Контекст принятия решений, особенно в сфере социального обеспечения, чрезвычайно важен для целей оценки их этичности [5, с. 11]. Здесь неизбежно возникает вопрос, связанный с тем, каким образом алгоритм будет учитывать этическую, субъективную и контекстнозависимую информацию, восприятие которой часто зависит от времени принятия решения. Представляется, что оценка этических маркеров человеком и системами ИИ вряд ли будет одинаковой, так как само понимание этики нельзя подвести к однозначной категории, пригодной для включения в компьютерную программу. Тем не менее механизм определения ИИ показателей этичности вполне может быть разработан хотя бы для оценки минимального уровня риска нарушения прав.

Принцип верховенства права предполагает, что защита основных прав человека законодательно гарантирована [9, с. 10]. Поэтому в случаях, когда наличествует угроза нарушения основных прав человека, использование ИИ должно соотноситься с определенными правовыми стандартами уважения человече- ского достоинства и обязательности соблюдения прав граждан. Именно этих положений следует придерживаться разработчикам ИИ, планирующим создать компьютерную программу, действительно отвечающую требованиям надежности. Необходимо, чтобы компании придерживались человекоориентированного подхода при разработке систем ИИ. То есть ИИ должен воспринимать людей как субъектов, а не объектов [8, с. 14].

Не менее значимыми видятся поощрение цифровой грамотности среди граждан, учет стандартов защиты прав человека в процессе программирования, прогнозирование рисков дискриминации при использовании ИИ [6, с. 17]. Представляется, что указанные меры не только высвечивают вопросы, касающиеся потенциала ИИ для защиты основных прав человека, но и предоставляют жизнеспособные варианты для государств, заинтересованных в этичном применении цифровых технологий.

Одним из многих этических вопросов, связанных с использованием ИИ, является вопрос о риске возникновения случаев дискриминации в отношении некоторых групп населения. Так, было выявлено, что технология автоматического распознавания лиц (далее – АРЛ) часто не способна различать лица женщин [12]. Также есть данные, что алгоритмическая обработка биометрической информации АРЛ некорректно работает по отношению к представителям этнических меньшинств [13]. Последствия подобных случаев могут выразиться в неправильной идентификации и маргинализации некоторых наиболее уязвимых групп населения. Сообразно этому, дальнейшее использование АРЛ имеет последствия для реализации принципа равенства всех перед законом и количества нега- тивных последствий для отдельных социальных групп. Это поднимает более широкий этический вопрос о том, следует ли вообще развертывать системы, которые, как известно, продуцируют ложные заключения для определенной части населения [7, с. 11].

Указанный вопрос, возможно, делает менее заметным тот факт, что использование АРЛ облегчает работу правоохранительных органов. Однако даже соображения обеспечения общественной безопасности не могут оправдать наличие некоторой доли предвзятости, заложенной в технологии АРЛ, которая должна служить интересам ликвидации дискриминации и укрепления социальных связей между всеми группами населения.

Заключение

В данной статье продемонстрирован лишь один из многих проблемных аспектов, сопутствующих дальнейшему взаимодействию права и ИИ, который касается принципа верховенства права и внедрения цифровых технологий в сферы правоприменения и государственного управления. Применительно к этому аспекту крайне продуктивно анализировать ИИ именно через призму принципа верховенства права, который содержательно может быть использован для разработки стандартов функционирования ИИ. Естественно, принцип верховенства права не единственный инструмент, с помощью которого возможно усовершенствовать регулирование технологий ИИ. Следует учитывать его межсекторальный и междисциплинарный характер, требующий учета разных точек зрения. Принцип верховенства права играет заметную роль в адаптации правовой системы к дальнейшему развитию ИИ и представляет собой надежную основу для модерации систем ИИ.

Список литературы О некоторых аспектах взаимодействия искусственного интеллекта и права

  • Афанасьев С. Ф. К вопросу о законодательном регулировании искусственного интеллекта // Российская юстиция. 2020. № 7. С. 46–49.
  • Карцхия А. А. Цифровой императив: новые технологии создают новую реальность // Интеллектуальная собственность. Авторское право и смежные права. 2017. № 8. С. 17–26.
  • Рассолов В. Ю. Уровни трансформации права в условиях цифровизации правового пространства // Пробелы в российском законодательстве. 2021. № 6. С. 71–75.
  • Рыбаков О. Ю. Информационные риски и эффективность правовой политики // Журнал российского права. 2016. № 3. С. 88–95.
  • Талапина Э. В. Права человека и цифровой суверенитет // Государственная власть и местное самоуправление. 2020. № 6. С. 10–15.
  • Тихомиров Ю. А. Право и цифровая информация // Право. Журнал Высшей школы экономики. 2021. № 2. С. 4–23.
  • Тихомиров Ю. А. Прогнозы и риски в правовой сфере // Журнал российского права. 2014. № 3. С. 5–16.
  • Уваров А. А. Проблемы использования цифровых технологий при реализации прав и свобод граждан // Право и цифровая экономика. 2020. № 2. С. 5–11.
  • Хабриева Т. Я. Право перед вызовами цифровой реальности // Журнал российского права. 2018. № 9. С. 5–16.
  • Юзефович Ж. Ю. Проблема способов защиты гражданских прав в свете развития цифровых правоотношений // Юрист. 2020. № 12. С. 40–45.
  • OECD, Recommendation of the Council on Artificial Intelligence, OECD/LEGAL/0449. URL: https://legalinstruments.oecd.org/en/ instruments/OECD-LEGAL-0449.
  • Study finds gender and skin-type bias in commercial artificial-intelligence systems. URL: https://news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial-intelligence-systems-0212.
  • Federal study of top facial recognition algorithms finds ‘empirical evidence’ of bias. URL: https://www.theverge.com/2019/12/20/21031255/facial-recognition-algorithm-bias-gender-race-age-federal-nest-investigation-analysis-amazon.
Еще
Статья научная