Теоретические подходы к определению правосубъектности искусственного интеллекта в сфере охраны здоровья

Бесплатный доступ

Целью работы является комплексный анализ теоретических подходов к определению правосубъектности искусственного интеллекта (ИИ) в сфере охраны здоровья в контексте существующих правовых вызовов. В ходе исследования применялись методы анализа, синтеза и обобщения научных источников, а также сравнительно-правовой и формальноюридический методы. Результаты: в статье представлен анализ трёх основных подходов к определению правового статуса ИИ в сфере охраны здоровья: рассмотрение ИИ как объекта права, признание за ним ограниченной правосубъектности и создание специального промежуточного правового режима. Выявлены ключевые проблемы: сложность распределения ответственности между разработчиками, операторами, медицинскими организациями и медицинскими работниками, противоречие между необходимостью обработки больших массивов, данных и обеспечением конфиденциальности медицинских данных, «непрозрачность» алгоритмов, затрудняющая установление причинно-следственной связи при причинении вреда. Выводы: на основании проведенного исследования обоснована необходимость внедрения специального правового режима для медицинских ИИ-систем, разработки механизмов распределения ответственности и обеспечения алгоритмической прозрачности. Результаты исследования могут быть использованы при совершенствовании законодательства и разработки этических стандартов в рассматриваемой области.

Еще

Искусственный интеллект, правосубъектность, охрана здоровья, теория государства и права, юридическая ответственность, медицинские ИИ-системы, конфиденциальность медицинских данных, автономность искусственного интеллекта, алгоритмическая прозрачность, цифровизация здравоохранения

Еще

Короткий адрес: https://sciup.org/14134638

IDR: 14134638   |   УДК: 34   |   DOI: 10.24412/2220-2404-2026-2-16

Theoretical approaches to determining legal subjectivity of artificial intelligence in the field of health protection

The purpose of the work is a comprehensive analysis of theoretical approaches to determining the legal personality of artificial intelligence (AI) in the field of health protection in the context of existing legal challenges. The research used methods of analysis, synthesis and generalization of scientific sources, as well as comparative legal and formal legal methods. Results: the article presents an analysis of three main approaches to determining the legal status of AI in the field of health protection: consideration of AI as an object of law, recognition of its limited legal personality and the creation of a special interim legal regime. Key problems have been identified: the complexity of the distribution of responsibility between developers, operators, medical organizations and medical professionals, the contradiction between the need to process large amounts of data and ensure the confidentiality of medical data, the «opacity» of algorithms, which makes it difficult to establish a causal relationship when harm is caused. Conclusions: based on the conducted research, the necessity of introducing a special legal regime for medical AI systems, developing mechanisms for allocating responsibility and ensuring algorithmic transparency is substantiated. The results of the research can be used to improve legislation and develop ethical standards in the field under consideration.

Еще

Текст научной статьи Теоретические подходы к определению правосубъектности искусственного интеллекта в сфере охраны здоровья

Научная статья                                          |<\         I Attribution                     (ccj          I

Введение.

Стремительное развитие технологий искусственного интеллекта и их активное внедрение в систему здравоохранения актуализируют вопрос о правовом статусе ИИ-систем и возможности признания за ними правосубъектности.

Применение искусственного интеллекта в медицине охватывает широкий спектр задач – от диагностики заболеваний до проведения научных исследований.

По мере усложнения ИИ-систем, роста их автономности и способности к самообучению возрастает необходимость определения их места в системе правовых отношений и установления субъектов ответственности за действия искусственного интеллекта.

Традиционная теория права исходит из того, что субъектами права могут быть только физические и юридические лица, обладающие волей и способностью нести ответственность за свои действия.

Искусственный интеллект, будучи технологией, не укладывается в классические категории правосубъектности, что порождает проблему: может ли ИИ рассматриваться как самостоятельный субъект права или должен оставаться объектом правоотношений, а ответственность за его действия должна возлагаться на создателей, операторов или пользователей системы.

Проблема правосубъектности искусственного интеллекта приобретает особую остроту в сфере охраны здоровья, где ошибки могут приводить к причинению вреда жизни и здоровью пациентов.

К.О. Рычкова констатирует, что основная позиция в современной медицине заключается в том, что модели и инструменты искусственного интеллекта существенно улучшают работу человека, но не должны и не могут заменить работу врачей и медицинского персонала [10, с. 53].

При этом следует отметить, что даже при сохранении за человеком финального решения, возникают вопросы распределения ответственности в ситуациях, когда врач следует рекомендациям ИИ-системы, которые оказываются ошибочными.

Искусственный интеллект не подпадает под категории физических или юридических лиц в их традиционной трактовке.

Как указывает Е.Д. Борулева, вопросы правового статуса и ответственности ИИ до сих пор не имеют решения в юридической практике, поскольку ни научные исследования, ни норматив- но-правовая база не содержат чёткого определения правосубъектности искусственного интеллекта [3, с. 23].

Автор указывает на то, что трудности в определении правосубъектности ИИ связаны с тем, что хотя системы искусственного интеллекта способны изучать законодательные нормы в процессе машинного обучения, существующие технологии не позволяют достоверно установить наличие у них сознания и определить степень его соответствия человеческому мышлению [3, с. 23].

Отсутствие у искусственного интеллекта сознания, воли и способности к осознанному целеполаганию является ключевым аргументом против признания за ним правосубъектности. Искусственный интеллект, даже обладая способностью к обучению и адаптации, действует на основе заложенных алгоритмов и обрабатываемых данных, не обладая собственными интересами, потребностями или желаниями.

Вместе с тем, развитие технологий искусственного интеллекта ставит под сомнение устойчивость традиционных правовых категорий.

А.Н. Сухарев акцентирует внимание на том, что центральной проблемой в использовании ИИ является невозможность логически обосновать, как он пришел к тому или иному выводу, а тем самым оценить его верность [12, с. 14]. Эта «непрозрачность» процесса принятия решений ИИ-системами создает уникальную ситуацию: система принимает решения, которые могут быть эффективными, но логика которых остается неясной даже для их создателей.

Обсуждение.

В теории права существует несколько подходов к решению проблемы правового статуса искусственного интеллекта. Первый подход предполагает отказ от признания правосубъектности ИИ и рассмотрение его исключительно как объекта права, инструмента в руках человека.

По мнению А.А. Шутовой, предоставление правосубъектности технологиям искусственного интеллекта в медицинской сфере на современном этапе является юридически необоснованным [15, с. 95].

М.А. Лапина разделяет данную точку зрения, отмечая, что интеллектуальные системы следует рассматривать не в качестве субъектов правоотношений, а как технические средства, относящиеся к категории «источников повышенной опасности»; при этом принятие окончательных решений и несение ответственности должно оставаться за человеком, за правовыми субъектами [8, с. 170].

Представляется, что рассмотрение искусственного интеллекта как источника повышенной опасности является юридически обоснованным, поскольку применение норм о повышенной опасности не требует доказывания вины причинителя вреда и обеспечивает более надежную защиту интересов пострадавших, однако этот подход не решает всех проблем, поскольку оставляет открытым вопрос о том, кто именно должен нести ответственность как владелец источника повышенной опасности.

Второй подход предполагает признание за искусственным интеллектом ограниченной правосубъектности, однако реализация этого подхода сталкивается с серьезными трудностями. Традиционные виды юридической ответственности – штрафы, лишение свободы, компенсация ущерба – не применимы к ИИ-системам, не обладающим имуществом, свободой передвижения или способностью испытывать страдания.

Третий подход предполагает создание специального правового режима для искусственного интеллекта, занимающего промежуточное положение между объектом и субъектом права.

И.В. Понкин выделяет проблему неопределённости субъекта несения ответственности за технический сбой, ошибку или иной дефект действий юнита ИИ медицинского назначения, повлёкший за собой причинение вреда здоровью пациента или его смерть [9, с. 64–65].

Особенности использования искусственного интеллекта в рассматриваемой области определяются исключительной значимостью охраняемых ценностей – человеческой жизни и здоровья.

А.Д. Им и А.А. Гуров указывают на то, что центральной проблемой внедрения ИИ в здравоохранение выступает определение субъекта ответственности за действия искусственного интеллекта, повлекшие неблагоприятные последствия, причём ответственность может распределяться между различными участвующими сторонами [6, с. 193]. Одновременно авторы подчёркивают, что, несмотря на интеграцию технологий ИИ, в медицинской практике сохраняются существенные риски, так как сбой в работе системы искусственного интеллекта или её ошибка в ходе хирургического вмешательства могут повлечь тяжёлые осложнения или летальный исход пациента [6, с. 193].

А.П. Иванова обращает внимание на сложность применения традиционных норм деликтной ответственности для установления вины медицинского работника, допустившего ошибку при работе с технологиями ИИ, так как алгоритмы искусственного интеллекта демонстрируют более высокую точность диагностики по сравнению с врачами [5, с. 155], и подчёркивает, что поскольку

функционирование развитого ИИ характеризуется непредсказуемостью и формируется в результате взаимодействия множества человеческих и нечеловеческих факторов, установление причинной связи между нанесённым вредом и действиями определённого физического или юридического лица представляется затруднительным [5, с. 156].

Это создает парадоксальную ситуацию: если ИИ-система принимает правильное решение, которое врач проигнорировал, это может рассматриваться как медицинская ошибка врача; если же врач следует ошибочным рекомендациям ИИ, он также может быть признан виновным. Поэтому необходима разработка специальных стандартов взаимодействия медицинского персонала с ИИ-системами, определяющих пределы обязанности врача следовать рекомендациям искусственного интеллекта.

А.В. Басова обращает внимание на то, что ключевой проблемой использования ИИ в медицинской практике выступает его автономность и способность к самообучению, что влечёт модификацию исходных программных параметров и возникновение сбоев [2, с. 110].

ЕЕ. Черных отмечает, что уголовное законодательство демонстрирует замедленную реакцию на научно-технический прогресс, в частности, сфера искусственного интеллекта и робототехники практически не получила правовой регламентации [13, с. 129], и подчёркивает, что ключевым критерием для установления норм ответственности за преступления с применением систем ИИ является целевое назначение системы, поскольку оно не может предполагать причинение ущерба [13, с. 130].

А.А. Шутова относит к числу проблем правового регулирования использования ИИ в медицине необходимость создания правового режима безопасного обращения медицинских устройств, функционирующих на основе технологий искусственного интеллекта [15, с. 98], и справедливо отмечает, что модернизация нормативного регулирования неизбежно потребует разработки и законодательного закрепления дефиниции понятия искусственный интеллект [15, с. 98–99].

Вопрос определения понятия «искусственный интеллект» представляет собой базовую проблему для формирования его правового статуса.

И.Ф. Колонтаевская подчёркивает сохраняющуюся терминологическую неясность самого понятия «искусственный интеллект», что порождает определённые трудности и риски неблагоприятных последствий [7, с. 1153].

Д.А. Чернышева в своем исследовании указывает на отсутствие законодательного закрепления таких терминов, как «искусственный интеллект», «технологии искусственного интеллекта», «интеллектуальная система поддержки принятия решений» [14, с. 378].

Следует отметить, что в Национальной стратегии развития искусственного интеллекта, то есть на уровне подзаконного нормативного акта, определения понятий «искусственный интеллект», «технологии искусственного интеллекта» представлены, но дальнейшего законодательного оформления не получили.

К.М. Иванов отмечает, что на законодательном уровне зафиксированы преимущества применения технологий ИИ, к которым относятся автоматизация процессов, повышение эффективности человеческой деятельности, минимизация рисков [4, с. 5], и указывает на то, что законодатель обозначил существующие сложности: недостаточный объём размеченных массивов данных, невозможность в ряде ситуаций объяснить причины принятия искусственным интеллектом определённого решения [4, с. 6].

А.Н. Сухарев обоснованно, по нашему мнению, утверждает, что результаты решений, принимаемых искусственным интеллектом, должны соответствовать этическим нормам и требуют правового регулирования [12, с. 14].

И.В. Понкин обращает внимание на проблему обеспечения действительной конфиденциальности и защиты персональных данных, сохранения врачебной тайны [9, с. 66].

А.П. Иванова констатирует, что для результативного функционирования ИИ необходимо непрерывное получение качественных массивов данных, что неизбежно затрагивает конфиденциальность личных данных пациентов, при этом ключевым условием успешной работы ИИ является максимизация объёма данных, а не их ограничение [5, с. 157].

И.Ф. Колонтаевская подчеркивает, что потенциальную угрозу содержат юридические риски, связанные с предоставлением алгоритму ИИ доступа к личной медицинской информации пациентов, включая их биометрические, генетические, медицинские данные [7, с. 1160].

А.В. Афанасьевская акцентирует внимание на том, что прозрачность и подотчетность систем искусственного интеллекта являются важнейшими задачами в системе здравоохранения, поскольку процессы принятия решений могут быть неясными [1, с. 105]. По мнению автора, внедрение искусственного интеллекта представляет собой переход к новой парадигме оказания медицинской помощи [1, с. 107].

Вместе с тем, И.В. Понкин считает излишне скоропалительным и преждевременным массовое внедрение технологий искусственного интеллекта в здравоохранении без поиска ответов на существующие проблемы [9, с. 66].

А.В. Сигал и М.А. Бакуменко утверждают, что ИИ не должен заменять врача, т.е. он не должен иметь возможности принятия врачебных решений, а должен использоваться в качестве инструментария [11, с. 183].

Результаты.

Проведенный анализ теоретических подходов позволяет констатировать, что медицинские ИИ-системы не могут быть наделены правосубъектностью в ее классическом понимании.

Следует согласиться с авторами, которые указывают на то, что искусственный интеллект не обладает сознанием и волей, необходимыми для статуса субъекта права, при этом рассмотрение его только как объекта права или источника повышенной опасности оказывается юридически недостаточным. Так называемая «непрозрачность» алгоритмов не позволяет установить причинно-следственную связь между действиями искусственного интеллекта и причинённым вредом, что затрудняет применение традиционных механизмов ответственности.

Данная ситуация создаёт комплекс взаимосвязанных рисков: неопределённость субъекта ответственности, противоречие между необходимостью обработки больших массивов, данных и обеспечением конфиденциальности медицинских данных, а также сложность оценки правомерности действия медицинского работника, следующего рекомендациям ИИ.

В связи с тем, что искусственный интеллект, в частности в сфере охраны здоровья, постоянно совершенствуется, то подход к определению его правосубъектности должен быть поэтапным в виду непрерывного технологического развития.

Заключение

Таким образом, анализ существующих теоретических подходов к определению правосубъектности искусственного интеллекта в сфере охраны здоровья позволяет сделать несколько принципиальных выводов. Современный уровень развития ИИ-технологий и степень их автономности не позволяют говорить о полноценной правосубъектности искусственного интеллекта по аналогии с физическими или юридическими лицами. Искусственный интеллект остается инструментом, не обладающим сознанием, волей и способностью нести ответственность за свои действия.

Рассмотрение искусственного интеллекта исключительно как объекта права и возложение всей ответственности за его действия на человека также является недостаточным подходом, поскольку не учитывает специфику ИИ-систем, их способность к самообучению и непредсказуемость поведения.

Необходима разработка специальных правовых механизмов распределения ответственности между различными субъектами, участвующими в жизненном цикле ИИ-системы: разработчиками алгоритмов, операторами, медицинскими организациями и медицинскими работниками.

Правовое регулирование применения искусственного интеллекта в сфере охраны здоровья должно исходить из приоритета защиты жизни и здоровья пациентов, обеспечения конфиденциальности медицинской информации, уважения достоинства личности. Это требует создания специального правового режима для медицинских ИИ-систем, учитывающего особую ценность защищаемых благ. Необходимо закрепление основных понятий, связанных с ИИ, в Федеральном законе от 21 ноября 2011 года № 323-ФЗ, а также определение критериев отнесения технологий к ИИ-системам, установление требований к разработке и внедрению медицинских ИИ-систем.

Ключевое значение имеет разработка этических принципов применения искусственного интеллекта в медицине, обеспечение прозрачности и подотчетности ИИ-систем, создание механизмов контроля за их функционированием.

Развитие правового регулирования в этой сфере должно осуществляться с учетом международного опыта и в тесном взаимодействии с медицинским и техническим сообществом, что позволит создать сбалансированную систему, стимулирующую инновации в медицине при одновременном обеспечении надежной защиты прав и интересов пациентов.