Основные элементы правосубъектности юнитов искусственного интеллекта
Автор: Полоницкий В.В.
Журнал: Вестник Академии права и управления @vestnik-apu
Рубрика: Теория и практика юридической науки
Статья в выпуске: 5 (86), 2025 года.
Бесплатный доступ
Проблема правосубъектности юнитов искусственного интеллекта представляет особый интерес, поскольку выявление новых особенностей авторского права формирует видение новой парадигмы субъекта и объекта правоотношений. В работе основной акцент сделан не на поиске «виновного алгоритма», а на проблеме обеспечения правовой определённости и справедливого распределения ответственности между всеми участниками экосистемы искусственного интеллекта (разработчик, оператор, пользователь, потерпевший).
Юниты, искусственный интеллект, правосубъектность, объект правового отношения, цифровизация
Короткий адрес: https://sciup.org/14134360
IDR: 14134360 | УДК: 34.023
Текст научной статьи Основные элементы правосубъектности юнитов искусственного интеллекта
А нализ нормативного регулирования правосубъектности юнитов искусственного интеллекта (далее – ИИ) играет ключевую роль в процессе реализации авторского права. Основная цель заключается в обеспечении соответствия требованиям использования технологии ИИ [1; 2].
Правосубъектность – это установленная правом способность лица быть носителем субъективных прав и юридических обязанностей, а также самостоятельно их осуществлять и исполнять. Традиционно она присуща физическим и юридическим лицам. Применительно к ИИ речь идет о потенциальном наделении его производной (или ограниченной) правосубъектностью.
Под юнитами ИИ понимаются информационные системы – компьютерные программы, роботы и другие технологии, разработанные на основе системы ИИ.
В процессе эволюции человеческого общества трансформация субъективного права достигла нового этапа развития, обусловленного возникновением концепции искусственных субъектных прав. Под искусственным субъектным правом понимается система законодательства и принципов, в соответствии с которой юниты ИИ могут быть признаны обособленными субъектами права. Так, в Японии прецедентом стало предоставление роботу Сибуя Мирай вида на жительство, сигнализирующее о потенциальном уравнивании правового статуса автономных робототехнических систем и граждан.
В контексте субъективной стороны сущностей, обладающих ИИ, выделяют следующие компоненты [3; 4]:
• технические средства; • интеллектуальные наработки; • нейроправа; © Полоницкий В.В., 2025 • произведения, созданные ИИ; • интеллектуальная собственность – авторские права, патенты, товарные знаки.
Данный список может быть продолжен в соответствии с развитием цифрового пространства [5; 6]. Для дальнейшего развития правосубъектности представляется необходимой разработка нормативноправового регламента.
Как правило, интеллектуальная собственность, созданная ИИ, должна обладать иным правовым статусом и отличаться набором прав от интеллектуальной собственности, созданной человеком.
На сегодняшний день ни одна юрисдикция не признает за ИИ правоспособности в полном объеме. Однако ведутся дискуссии о наделении продвинутых автономных систем целевой (специальной) правоспособностью. Это означало бы, что ИИ может иметь права и обязанности только в строго определенной законодательством сфере (например, в области интеллектуальной собственности или гражданско-правовых сделок). По аналогии, юридическое лицо имеет не универсальную, а специальную правоспособность, определяемую его уставными целями.
Дискуссию о «целевой правоспособности» ИИ следует заменить концепцией функционального приписывания: решения высокоавтономных систем признаются юридически значимыми, однако носителями соответствующих прав и обязанностей выступают определённые законом человеческие и корпоративные субъекты (разработчик, оператор, пользователь), а риски распределяются через режимы повышенной ответственности, страхование и компенсационные фонды. Тем самым ИИ остаётся объектом права, акцент переносится с «поиска «виновного алгоритма» на справедливое распределение ответственности между участниками экосистемы и управление рисками по модели, уже принятой в современных регуляторных подходах.
После изложенного вопрос о «дееспособности ИИ» представляется излишним. В частном праве дееспособность – это способность субъекта владеть своими действиями и реализовывать права и принимать на себя и исполнять обязанности. Это предполагает наличие воли и сознания, возможность совершения сделок и ответственность за причинённый вред. Искусственный интеллект такими качествами не располагает, так как он работает по заданным алгоритмам и на основе введённой информации. Поэтому логично говорить не о дееспособности ИИ, а о правовой значимости его действий. И при этом о том, как правовые последствия его работы следует относить к людям или организациям, связанным с ним, – разработчику, владельцу, оператору или пользователю. Также важно заранее определить, кто и в каком объёме несёт риски, например, через специальные режимы ответственности и системы страхования.
В развитых странах вводится концепция «электрической личности/персоны». Это юридическая конструкция, схожая с понятием юридического лица. ИИ приписывается возможность совершать действия (заключать контракты, осуществлять иные юридически значимые действия), однако эти действия реализуются через его уполномоченных представителей (собственников, операторов, кураторов). Следовательно, «правосубъектность» ИИ будет носить искусственный и представительский характер.
При этом относительно деликтоспосособности ИИ возникает вопрос, кто будет отвечать за вред, причиненный автономным решением ИИ (например, ДТП беспилотного автомобиля, ошибка в медицинском диагнозе).
В соответствии с Гражданским кодексом РФ автором произведения (интеллектуальной собственности) признается человек, который его создал в процессе творческой деятельности, на которую в определенных случаях может быть возложена соответствующая мера ответственности. Однако в отличие от авторского правоотношения в рамках гражданского законодательства правовой статус юнитов ИИ не закреплен на законодательном уровне.
Теоретически возможно создание специального страхового фонда или актива (капитализация), за счет которого будет возмещаться вред, причиненный конкретной системой ИИ. В этом случае ИИ формально будет выступать субъектом ответственности, но фактически она обеспечивается его имуществом, изначально сформированным человеком.
Предлагается закрепить за юнитами ИИ авторские права, но вынести их в особую категорию. Приобретение особого статуса правосубъектности юнитов интеллектуальной собственности позволит разграничить интеллектуальную собственность, созданную человеком, и интеллектуальную собственность, созданную ИИ. Основываясь на технической стороне ИИ, следует отметить, что продукты интеллектуальной собственности образуются в результате алгоритмов, созданных человеком. В данной связи продукты, созданные ИИ, являются конечным продуктом интеллектуальной собственности человека и компьютерных программ.
Исходя из вышеуказанного, необходимо разграничить на законодательном уровне субъект авторского права человека и субъект авторского права ИИ.
В настоящее время не существует универсального признания правосубъектности за ИИ. Доминирующий подход заключается в том, что ИИ является объектом права (сложный программно-технический продукт), а не субъектом.
Однако по мере роста автономности систем дискуссия об их особом статусе усиливается. Наиболее вероятным сценарием является не наделение ИИ правосубъектностью, равной человеческой, а создание новой, гибридной, модели регулирования. Эта модель будет:
-
• фиктивной, то есть признавать за высокоавто номными системами статус «электронного лица» для конкретных правовых целей;
-
• производной, то есть все элементы правосубъ ектности ИИ будут производными от действий и решений людей (создателей, владельцев, пользователей);
-
• сбалансированной, то есть главным принци пом станет обеспечение правовой определённости и справедливого распределения ответственности между всеми участниками экосистемы ИИ (разработчик, оператор, пользователь, потерпевший), а не поиск «виновного алгоритма».
Таким образом, правосубъектность ИИ – это не бинарное состояние, а сложный конструкт, состоящий из отдельных, потенциально наделяемых элементов, которые могут варьироваться в зависимости от уровня автономности и назначения конкретной системы ИИ.
На наш взгляд под «субъектом авторского права искусственного интеллекта» понимается правообладатель продукта, созданного с помощью ИИ, при этом следует отличать автора, который создал продукт с помощью ИИ, и автора, который создал ИИ.
В связи с этим следует отметить, что авторская деятельность является отчасти творческой, а использование системы ИИ своего рода плагиатом, так как нейросети берут информацию из внешних источников, созданных человеком, и компонуют.
Следовательно, правосубъектность юнитов ИИ носит особый статус, включающий в себя творческую деятельность и компиляцию чужих мнений. Поэтому признание продукта, созданного юнитами ИИ, субъектом авторского права ИИ, возможно только при доказательстве использования творческой деятельности человека.
В практической деятельности существуют случаи, когда ИИ создает продукты без участия человека. При этом признание авторского права ИИ следует считать за разработчиком программного продукта, поскольку алгоритм действий и мышления сформован именно им.
Признание технологии ИИ автором своих продуктов является некорректным, поскольку ИИ создан на основе алгоритма, разработанного его создателем. В основу самообучающихся алгоритмов заложен механизм нейросети на основе деятельности человеческого мозга. В данном случае признание авторских прав следует определять в зависимости от сложившейся ситуации. В судебной практике пока еще мало случаев определения авторских прав ИИ.
В качестве признания авторского права за юнитами ИИ считаем целесообразным обозначить:
• технология ИИ должна иметь лицензию; • алгоритм ИИ должен быть открытым, то есть раскрывать источники данных для анализа;
-
• применение механизмов компенсации авто рам интеллектуальной собственности, которые используют ИИ, за их пользование.
Следовательно, признание правосубъектности юнитов ИИ основано на использовании открытых источников и творческого симбиоза человека и ИИ. Возникает необходимость законодательного уточнения данных категорий. Также законодательством должен быть определен механизм деятельности разработчиков систем ИИ. В данном контексте необходимо создать государственное подразделение экспертизы, которое будет осуществлять проверку подлинности правосубъектности юнитов ИИ. Следовательно, если автором будет предложено признать продукт, который был создан с помощью ИИ в качестве авторского права, компетентный специализированный орган должен будет определить правомочность данного действия.
Для решения обозначенной проблемы представляется целесообразным на законодательном уровне разработать законопроект, имеющий следующую структуру.
-
1. Терминология и определения, включает общепринятую терминологию, используемую в нормативной документации, алгоритмы и требования для определения юнита ИИ в качестве субъекта авторского права, а также описание этических норм использования продуктов, созданных с помощью ИИ.
-
2. Права и обязанности правообладателя, регламентирующие порядок и возможности применения механизма компенсации авторам интеллектуальной собственности, которые используют ИИ, за их пользование, а также формирование правил добросовестной конкуренции, в том числе установку на законодательной основе блок антимонопольного регулирования в области использования ИИ.
-
3. Требования к юнитам ИИ, регламентирующие правила их использования, маркировки и предоставление полной информации об авторских правах.
-
4. Правомочность отношений, регулирующую отношения между правообладателями и пользователями ИИ, защиту информации о пользователе, включая защиту прав несовершеннолетних и пожилых людей.
-
5. Ответственность за недобросовестное использование, содержащую правила ответственности за недобросовестное использование юнитов ИИ, в том числе ответственность административного и уголовно-правового характера.
Рассматривая зарубежную практику правосубъектности юнитов ИИ, следует отметить, что в 2024 году в ЕС вступил в силу регламент, регулирующий деятельность ИИ. В нём системы ИИ делятся на системы с недопустимым риском, высоким, ограниченным и минимальным риском. Системы с недопустимо высоким риском (например, использующие некие «субли-миниальные техники» воздействия на человеческое сознание) полностью запрещены. Остальные регулируются с разной степенью жёсткости в зависимости от степени риска. Регламент не требует имплементации в национальные законы, а применяется национальными судами непосредственно.
В связи с нарастающей ролью ИИ в повседневной жизни необходимо разработать соответствующую нормативно-правовую базу, гарантирующую фундаментальное право человека и права человека на принятие конкретных решений именно им, а не ИИ.
С этой целью государство должно активно участвовать в распространении информации об ИИ, что подразумевает поощрение науки и образования, а также вести строгий контроль их коммерческих коммуникаций. Такой комплексный подход гарантирует, что общественность получит точную и сбалансированную информацию, которая имеет решающее значение для эффективного регулирования в области
ИИ, его ответственного развития. Одной из главных проблем, связанных с ИИ, является недостаток наших знаний, служащих главным образом целям коммерциализации историй успеха в рекламе, что приводит к «нейроочарованию» и «нейромифии». Законы о защите прав потребителей, конкуренции и безопасности продукции эффективны для противодействия ложным или преувеличенным заявлениям, их необходимо использовать.
В заключение хотелось бы отметить, что назрела общественная необходимость в объективном освещении истории развития ИИ, подразумевающем предоставление достоверной информации о текущем уровне знаний, существующих пробелах в понимании, а также потенциальных возможностях, сопряженных с его применением, и сопутствующих рисках. Это означает активное продвижение новых исследований, придание гласности и успехов, и неудач, представление результатов в доступной форме не только с помощью науки, но и государственного управления, интеграцию информационных технологий в образование и строгий контроль за коммерческим представительством.