Проблема правосубъектности искусственного интеллекта в правовой системе государства

Автор: Порываева О.В.

Журнал: Власть @vlast

Рубрика: Позиция

Статья в выпуске: 4 т.33, 2025 года.

Бесплатный доступ

Развитие технологий искусственного интеллекта ставит перед правовой системой новые вызовы, одним из которых является вопрос о его правосубъектности. В статье анализируются основные аспекты правосубъектности ИИ, включая его способность совершать юридически значимые действия и нести ответственность за их последствия. Автор рассматривает различные подходы к решению этой проблемы, включая правовые и этические аспекты, уделяя особое внимание перспективам признания ИИ в качестве субъекта права и возможным последствиям такого признания для правовой системы и общества в целом.

Искусственный интеллект, правоспособность, деликтоспособность, субъект права, объект права, квазисубъект права, интеллектуальная собственность, электронное лицо, правовая песочница

Короткий адрес: https://sciup.org/170211049

IDR: 170211049

Текст научной статьи Проблема правосубъектности искусственного интеллекта в правовой системе государства

Р азвитие технологий искусственного интеллекта (далее – ИИ) достигло уровня, когда ИИ-системы способны выполнять задачи, традиционно считавшиеся прерогативой человека, такие как принятие решений, творчество, обучение и адаптация. Это поднимает фундаментальный вопрос о правовом статусе ИИ. Традиционно субъектами права признаются физические и юридические лица, обладающие волей и способностью нести ответственность за свои действия. Однако ИИ, обладая определенной автономией и способностью к самообучению, ставит под сомнение эту устоявшуюся парадигму.

Вопрос о правосубъектности ИИ – это не только теоретическая проблема, но и практическая необходимость, обусловленная возрастающей ролью ИИ во всех сферах жизни общества. От роботизированных хирургов и беспилотных автомобилей до алгоритмов, определяющих кредитные рейтинги и выносящих судебные решения, ИИ все чаще принимает решения, оказывающие непосредственное влияние на жизнь людей. В связи с этим возникает острая потребность в разработке правовых механизмов, регулирующих деятельность ИИ и определяющих ответственность за его действия.

На сегодняшний день юрисдикция ни одной страны не признает ИИ самостоятельным субъектом. Все действия ИИ рассматриваются через призму правосубъектности их создателей или пользователей. Это создает ряд проблем.

Во-первых, это вопрос ответственности: кто в случае причинения вреда или нарушения прав третьих лиц должен нести ответственность – разработчик, пользователь или сам ИИ?

Во-вторых, авторские права: случае, если ИИ создает оригинальный контент (например, музыку или картины), то кому принадлежат авторские права на этот контент?

Третья проблема – дискриминация: алгоритмы могут воспроизводить предвзятости, существующие в данных, на которых они обучались. Это ставит под сомнение этичность их применения.

В качестве примера можно привести алгоритмы, используемые для оценки вероятности рецидива у преступников, продемонстрировавшие предвзятость, выдавая более строгие приговоры для определенных расовых или этнических групп. Исследования показывают, что такие системы ошибочно классифицируют чернокожих преступников как более склонных к повторным правонарушениям по сравнению с людьми с белым цветом кожи, что приводит к более строгим наказаниям для них1. Таким образом, данный пример ставит под сомнение справедливость таких судебных решений.

Для решения обозначенных проблем существует несколько подходов к определению правосубъектности ИИ.

  • 1.    Первый подход рассматривает ИИ как субъект права. Этот подход предполагает наделение ИИ статусом, близким к физическому лицу, что позволило бы ему участвовать в правоотношениях и нести ответственность за свои действия. Следует отметить, что некоторые современные системы ИИ способны принимать решения без человеческого вмешательства. Это как раз и создало предпосылки для того, чтобы рассматривать их как самостоятельные субъекты. Однако развитие этой мысли в юридическом контексте возможно только после введения новых категорий правосубъектности именно для ИИ, которые учитывали бы их уникальные характеристики. Повторим, что на данный момент ни одна страна не признает искусственный интеллект в качестве субъекта права, что означает, что у него нет юридических прав и обязанностей. Некоторые специалисты ссылаются на Бразилию, которая рассматривает возможность наделения ИИ ограниченными правами и обязанностями. В этой стране обсуждается законопроект, который может признать ИИ агентом права. Изучив данные инициативы, следует отметить, что они сводятся больше к набору правил использования искусственного интеллекта.

  • 2.    Второй подход базируется на признании ИИ объектом права. Основано данное суждение на нескольких правовых принципах и подходах, которые можно рассмотреть в контексте существующего законодательства и судебной практики. Так, в России отсутствуют специальные законы о правах ИИ на авторство произведений, искусственный интеллект рассматривается как инструмент для творчества человека. Пока нормативная база позволяет защищать результаты его деятельности через законы об интеллектуальной собственности, но при условии непосредственного участия человека.

  • 3.    Третьим подходом является рассмотрение ИИ как квазисубъекта права, который занимает промежуточное положение в правовой системе, сочетая черты объекта права и ограниченной правосубъектности. Квазисубъект права («как бы субъект» права) определяется как правовая категория, наделяющая ИИ частичными признаками субъектности при отсутствии полноценной правоспособности. Для большей наглядности, чтобы провести границу между квазисубъектом и объектом права в области применения искусственного интеллекта, можно привести примеры. Так, принято считать, что к объектам права относятся статистические алгоритмы без автономии, например чат-бот или система-запрос. К квазисубъектам права относятся самообучающиеся системы с ограниченной ответственностью, такие как автономные роботы и нейросети-трейдеры. Автономные роботы уже активно используются в таких областях, как освоение космоса, ведение домашнего хозяйства, а также очистка сточных вод и доставка товаров. Автономные роботы могут обрабатывать информацию об окружающей среде. Вторые из указанных (нейросети-трейдеры) представляют собой математические модели, используемые для анализа финансовых данных и прогнозирования движения цен на рынках.

Таким образом, признание ИИ субъектом права пока остается гипотетическим сценарием. Ключевым аргументом против является отсутствие у него таких аспектов, как свободная воля и сознание, личные интересы и эмоции2, способность нести ответственность без человеческого контроля.

Попыткой решить проблему правосубъектности искусственного интеллекта стала в т.ч. и европейская модель, ставшая образцом для других стран. Она укладывается в рамки рискоориентированного подхода, который подразумевает запреты на отдельные технологии, а также определение правовых требований в зависимости от потенциального риска применения искусственного интеллекта. На сегодняшний день определены четыре уровня риска: минимальный (например, фильтры спама), ограниченный (например, ChatGPT , Midjourney ), высокий (например, медицинская диагностика, беспилотный транспорт) и неприемлемый (например, социальный рейтинг, дипфейки). По высокому риску существует требование обязательной сертификации и регистрации в реестре. По неприемлемому – полный запрет.

В качестве дополнительного риска можно отметить риск морально-нравственного характера, а именно злоупотребления. Признание ИИ субъектом права может привести к перекладыванию ответственности на технологии, что создает риски злоупотребления со стороны человека.

В целом же первый подход призван сочетать в себе защиту прав граждан со стимулированием развития в данной сфере.

В Китае уже есть судебные прецеденты, связанные с изображениями, созданными нейросетями, которые находятся под защитой закона об интеллектуальной собственности данного государства. Так, 27 ноября 2023 г. Пекинский интернет-суд вынес решение в деле Ли Юнкая (истец) и Лю Юйчуань (ответчик), которое стало значимым прецедентом в области защиты авторских прав человека на результаты деятельности искусственного интеллекта. Истец использовал сервис ИИ, а именно Stable Diffusion , для создания изображений девушек, которые были опубликованы в китайской социальной сети. Ответчик же использовала одно из этих изображений без разрешения истца, что судом было признано нарушением его авторских прав. Решение было основано на том факте, что истец внес творческий вклад в процесс генерации изображения, а также редактировал результаты согласно своим эстетическим предпочтениям.

Самым главным аргументом для признания ИИ объектом права служит отсутствие у него субъективных качеств – сознания и воли.

Согласно данному подходу, квазисубъект может обладать частичной правосубъектностью, а именно деликтоспособностью, но не полноценными правами. Признание деликтоспособности в контексте применения к ИИ может потребовать создания новых правовых категорий, специально разработанных для интеллектуальных машин и систем. Возможно создание промежуточных статусов, обладающих определенными правами и обязанностями, а также способностью нести ответственность за свои действия. Концепция квазисубъектности позволит интегрировать ИИ в правовую систему, сохраняя принцип исключительности статуса и роли человека в правовой системе. По сути, это первый шаг к рассмотрению вопроса ответственности за действия искусственного интеллекта. На данный момент с юридической точки зрения ответственность возлагается на его разработчиков или пользователей.

Какие меры можно предпринять, чтобы реализовать деликтоспособность искусственного интеллекта?

Во-первых, многие специалисты предлагают внедрить концепцию электронного лица. Введение нового правового статуса для роботов и других автономных систем может помочь включить их в существующую систему гражданско-правовой ответственности.

Во-вторых, предлагается установить принцип «правовой песочницы» для искусственного интеллекта, который основывается на создании экспериментального правового режима. Тестирование ИИ в безопасной среде помогает выявить этические и социальные аспекты его использования, что способствует формированию более ответственного подхода к разработке технологий. Известны стартапы в области ИИ, в рамках которых тестируются решения по диагностике заболеваний на реальных данных пациентов при соблюдении норм конфиденциальности.

Также принцип «правовой песочницы» очень помогает компаниям, разрабатывающим беспилотные автомобили. Они могут проверять свои технологии в условиях городского движения.

Режим «правовой песочницы» представляет собой хороший инструмент для регулирования искусственного интеллекта. Он позволяет создавать безопасную и инновационную среду для тестирования новых технологий, обеспечивая при этом защиту интересов общества. Важно продолжать развивать этот подход.