Правовые проблемы применения искусственного интеллекта в сфере здравоохранения
Автор: Климан Ю.А.
Журнал: Теория и практика общественного развития @teoria-practica
Рубрика: Право
Статья в выпуске: 11, 2024 года.
Бесплатный доступ
Целью исследования выступают имеющиеся проблемы использования цифровых технологий, в том числе с элементами искусственного интеллекта, при оказании пациенту медицинской помощи. В работе отмечается положение, в соответствии с которым комплекс современных проблем использования искусственного интеллекта в медицинской деятельности обусловлен отсутствием юридической регламентации этих общественных отношений. Классические нормы права не всегда применимы к искусственному интеллекту, что создает правовую неопределенность. Предлагаются пути возможного преодоления и устранения данных проблем правового регулирования общественных отношений в рассматриваемой социальной сфере деятельности. Анализируется ряд юридических актов международного и российского уровней, касающихся регулирования применения искусственного интеллекта, в том числе относительно рисков и требований к прозрачности, ответственности и этичности.
Цифровые технологии, искусственный интеллект, робот, медицинская помощь, здравоохранение, правовое регулирование
Короткий адрес: https://sciup.org/149146604
IDR: 149146604 | DOI: 10.24158/tipor.2024.11.28
Текст научной статьи Правовые проблемы применения искусственного интеллекта в сфере здравоохранения
В большинстве случаев общественные отношения в той или иной сфере деятельности, в том числе правоотношения в области здравоохранения, развиваются быстрее, чем совершенствуются соответствующие национальные правовые акты. Современные достижения в области цифровых технологий, таких как блокчейн, новые решения в сфере искусственного интеллекта (ИИ), сенсорика, робототехника, беспроводная связь, обработка больших данных, дополненная и виртуальная реальность также оказали влияние на здравоохранение.
Понятие «цифровое здравоохранение», как правило, ассоциируется с передовыми разработками и технологиями будущего, включая искусственный интеллект и робототехнику, и представляет собой результат слияния медицины и цифровых технологий, обеспечивая цифровую трансформацию традиционной медицины1.
В последние годы ИИ находит все более широкое применение в области медицины, что порождает ряд правовых и этических вопросов. В статье рассмотрены основные проблемы правового регулирования ИИ в медицине, включая защиту персональных данных, ответственность за ошибки ИИ, этические аспекты и взаимодействие между медицинскими работниками и ИИ.
Внедрение технологий искусственного интеллекта стало одним из ключевых направлений современного здравоохранения. ИИ значительно трансформирует глобальную систему, улучшая диагностику, содействуя разработке новых препаратов и повышая качество услуг при одновременном снижении затрат для медицинских учреждений.
Искусственный интеллект в контексте медицины можно охарактеризовать как применение компьютерных систем и алгоритмов для выполнения задач, которые обычно требуют человеческого интеллекта. Основными функциями ИИ в медицине можно считать следующие:
-
– анализ и интерпретация медицинских данных (обработка больших объемов информации, включая данные о пациентах, результатов лабораторных тестов и изображений);
-
– диагностика заболеваний (использование алгоритмов для определения заболеваний на основе анализируемой информации, что может повысить точность диагностики);
-
– прогнозирование исходов лечения (оценка вероятных результатов лечения на базе исторических данных и алгоритмических моделей);
-
– автоматизация административных процессов (использование ИИ для оптимизации записи на прием, обработки страховых случаев и других административных задач, что снижает нагрузку на медицинский персонал);
-
– поддержка принятия клинических решений (предоставление врачам рекомендаций и информации, основанной на накопленных данных).
Усиление потребности медицины в IT-решениях объективно обусловлено процессами четвертой технологической революции, что актуализирует проблемы правового регулирования использования цифровых технологий при оказании медицинской помощи (цифровой медицины). Это в том числе объясняется значительным увеличением доли больных с хроническими формами заболеваний, а оказание экстренной и неотложной медицинской помощи порождает необходимость обеспечения постоянного мониторинга и длительного ухода за пациентом. Ученые отмечают, что существенным драйвером развития цифровой медицины стала пандемия коронавирусной инфекции. Задача наладить оперативную массовую помощь больным, в том числе в дистанционном формате, привела к смягчению нормативных ограничений, регулирующих использование отдельных информационных технологий (Еремеева, 2020).
Распоряжением от 17 апреля 2024 г. № 959-р Правительство РФ утвердило стратегическое направление в области цифровой трансформации здравоохранения1. В данном документе определены приоритетные задачи и цели цифровизации здравоохранения. Государство планирует до 2030 г. внедрить новые информационные технологии, в том числе нейротехнологии и ИИ. Также в рамках стратегии утвержден проект «Искусственный интеллект», в соответствии с которым планируется к внедрению 3 медицинских изделия с технологиями ИИ в текущем году, а в 2030 г. – 12.
Развитие технологий искусственного интеллекта ставит серьезные вызовы перед правовой системой, системой государственного управления и обществом в целом. Они обусловлены определенной степенью автономности действий систем искусственного интеллекта в решении поставленных задач и их неспособностью непосредственно воспринимать этические и правовые нормы, учитывать их при осуществлении каких-либо действий.
В настоящее время в Российской Федерации отсутствует специальное законодательное регулирование, учитывающее специфику применения технологий искусственного интеллекта и робототехники. В то же время анализ мирового опыта показывает, что в ряде стран уже существует первичное правовое регулирование использования ИИ и робототехники. Так, Европейской комиссией в 2021 г. разработано Предложение о принятии регламента Европейского парламента и Совета, устанавливающего правила в отношении искусственного интеллекта (Proposal for a Regulation on Artificial Intelligence (AI Act))2, направленное на создание единого правового рамочного документа для регулирования использования и разработки ИИ в Европейском союзе. Цели документа включают обеспечение безопасности, защиту прав человека и создание конкурентоспособной экосистемы AI. Данный регламент классифицирует ИИ-системы по уровню риска (высокий, ограниченный, минимальный) и устанавливает требования к прозрачности, ответственности и этичности.
Китайская Народная Республика начала разработку законодательства в области искусственного интеллекта весной 2023 г. В настоящее время в стране действуют Временные меры по регулированию услуг генеративного искусственного интеллекта1, которые вступили в силу 15 августа 2023 г. и вводят ограничения на публичные услуги, использующие ИИ.
Современное российское правовое регулирование использования цифровых технологий в здравоохранении, в том числе в области ИИ, базируется на нормах ст. 91 и 91.1 Федерального закона № 323-ФЗ «Об основах охраны здоровья граждан в Российской Федерации»2, где закрепляются нормативно-правовые основы создания и функционирования единой государственной информационной системы в сфере здравоохранения, а именно определяются: задачи информационной системы в сфере здравоохранения; структура и порядок ведения системы; порядок и сроки представления информации; участники информационного взаимодействия; порядок доступа к информации, содержащейся в единой системе; требования к программно-техническим средствам; порядок обмена информацией с использованием единой государственной информационной системы в сфере здравоохранения; порядок защиты информации, содержащейся в системе.
Представляется необходимым признать, что современное состояние законодательного и иного правового регулирования применения цифровых технологий в здравоохранении оставляет желать лучшего, так как практически не регламентирует вопросы использования цифровых технологий при оказании медицинской помощи как комплекса мероприятий, направленных на поддержание и (или) восстановление здоровья и включающих в себя предоставление медицинских услуг пациенту. Не решает данной проблемы и Федеральный закон «Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации»3, который распространяется на направления фармацевтической и медицинской деятельности, в том числе с применением телемедицинских технологий и технологий сбора и обработки сведений о состоянии здоровья и диагнозах граждан.
Отсутствие единых подходов к регулированию этих технологий создает множество концептуальных проблем, требующих решения. Далее рассмотрен ряд ключевых проблемных направлений правового регулирования искусственного интеллекта в сфере здравоохранения.
Во-первых, необходимо создать правовую основу для использования цифровых технологий, включая медицинское оборудование с элементами искусственного интеллекта, медицинских роботов, диагностических электронных систем и т. п. Во-вторых, важно установить институт юридической ответственности за ущерб, который может быть причинен медицинскими устройствами с ИИ, роботами, электронными диагностическими комплексами и т. п.
В рамках первого вопроса уместно упомянуть позицию известного английского исследователя проблем ИИ Н. Нильсона. Он отмечает, что ИИ представляет собой деятельность, которая направлена на создание разумной машины (робота), в то время как интеллект выступает всего лишь качеством, позволяющим данному роботу функционировать с учетом эмпирических факторов среды (Nilsson, 1982).
Исключая на современном этапе развития робототехники возможность наделения его квазисубъектностью, следует между тем признать, что использование ИИ в «машине» должно основываться на правовом регулировании его эксплуатации (Егорова, 2023). При практическом отсутствии правовой основы регулирования применения ИИ при оказании медицинской помощи нельзя не учитывать имеющийся мировой опыт такой регламентации. Например, Резолюция Европарламента от 16 февраля 2017 г. № P8_TA-PROV(2017)0051 «Нормы гражданского права о робототехнике»4 устанавливает систему гражданско-правовых принципов правового регулирования использования ИИ, что еще раз подчеркивает актуальность правового регулирования, а не нормативного.
В основном использование искусственного интеллекта в здравоохранении сосредоточено на системах поддержки принятия врачебных решений, таких как диагностика. В подобных системах необходима обработка больших объемов данных, включая личные сведения пациентов. Основной проблемой здесь является обеспечение конфиденциальности и защиты этой информации.
Существует риск несанкционированного доступа к медицинским записям и утечек данных, что может иметь серьезные последствия для пациентов. Это поднимает вопрос о защите персональных сведений, которые обрабатываются в таких системах. С одной стороны, системы могут использовать обезличенные данные, что позволяет предполагать их свободную обработку. С другой стороны, такой подход вызывает юридические сомнения, поскольку позиция Роскомнадзора гласит, что обезличенные персональные данные также считаются персональными.
Более того, в отношении персональной информации в медицине в Федеральном законе № 152-ФЗ «О персональных данных» присутствует определенная коллизия1. Так, эти данные можно обрабатывать без согласия субъекта, если такая обработка осуществляется в статистических или иных исследовательских целях – при условии обязательного их обезличивания (п. 9 ч. 1 ст. 6 Закона № 152-ФЗ). В то же время сведения о состоянии здоровья относятся к специальной категории персональных данных (по смыслу ч. 1 ст. 10 Закона № 152-ФЗ), где нет исключения для обработки таких данных без согласия субъекта. Существует исключение для обработки персональных данных без согласия субъекта в медико-профилактических целях, в целях установления медицинского диагноза, оказания медицинских и медико-социальных услуг при условии, что обработка персональных данных осуществляется лицом, профессионально занимающимся медицинской деятельностью и обязанным в соответствии с законодательством Российской Федерации сохранять врачебную тайну (п. 4 ч. 2 ст. 10 Закона № 152-ФЗ). Однако в контексте использования искусственного интеллекта применение этой нормы вызывает вопросы.
С учетом изложенных проблем возникает необходимость соблюдения баланса между защитой персональных данных и потребностями в их использовании для обучения систем искусственного интеллекта. Информация о пациентах, включая их медицинские истории, результаты обследований и другие сведения, играет ключевую роль в разработке эффективных моделей ИИ. Однако использование этих данных порождает серьезные юридические и этические вопросы. С одной стороны, нормы действующего законодательства накладывают строгие ограничения на обработку персональной информации и требуют от организаций получения согласия пользователей, а также гарантии их безопасности. С другой стороны, для достижения высокой точности ИИ-моделей необходимо иметь доступ к большим объемам данных, что может затруднять их сбор и использование.
В большинстве стран действуют строгие законы о защите персональных данных, например Общий регламент по защите данных (GDPR) в Европейском союзе. Однако применение этих норм к ИИ-технологиям иногда вызывает трудности. Например, способ получения согласия пациентов для использования их данных в обучении ИИ требует четких правовых рамок.
Для решения этой проблемы необходимо разработать четкие нормативные акты, которые позволят использовать обезличенные данные для обучения ИИ, одновременно сохраняя при этом безопасность и конфиденциальность пациентов. Важно находить способы, позволяющие организовать прозрачный и этичный доступ к информации, который будет способствовать внедрению инноваций в области здравоохранения (Лапина, 2022).
Второй важной проблемой является неопределенность в отношении предмета и границ регулирования технологий ИИ и робототехники в здравоохранении. В настоящее время существует множество разнообразных ИИ-приложений – от диагностики заболеваний до автоматизации административных процессов, каждая из этих областей может требовать различных подходов к регулированию. Отсутствие четкой дефиниции, что именно следует регулировать, может привести к правовым пробелам и неопределенности как для разработчиков технологий, так и для медицинских учреждений. Сформулировать универсальные правила, охватывающие все аспекты использования ИИ и робототехники, непросто, так как эта сфера быстро развивается и новые технологии постоянно появляются на рынке.
Необходимость создания регулирующих стандартов, которые будут учитывать многообразие ИИ-приложений, а также их потенциальное влияние на пациентов и медицинских работников, является крайне актуальной. Здесь предлагается акцентировать внимание на принципах безопасности, эффективности и этики. Разработка критериев для классификации приложений искусственного интеллекта по уровням риска и соответствующим требованиям может стать одним из способов решения данной проблемы.
1 О персональных данных [Электронный ресурс] : Федер. закон от 27 июля 2006 г. № 152-ФЗ : с изм. от
Проблемы взаимодействия между медицинскими работниками и искусственным интеллектом в основном сводятся к тому, что большинство специалистов одобряет использование ИИ в медицине, но при условии, что окончательное решение остается за врачом. Искусственный интеллект должен помогать врачу, но не заменять его, как заявил спикер Государственной думы В.В. Володин на заседании Государственной думы РФ в мае 2024 г.1
Введение ИИ в медицину меняет традиционные подходы к взаимодействию между медицинскими работниками и технологиями. Врачи должны быть готовы работать в тандеме с ИИ-систе-мами, что требует как технической, так и эмоциональной адаптации. На практике это может вызвать сопротивление со стороны медицинского персонала, который может опасаться, что ИИ заменит их работу. Кроме того, необходимо сформулировать четкие рекомендации по использованию ИИ в клинической практике, чтобы минимизировать риски и повысить эффективность лечения.
Сложнее обстоит дело при разрешении проблем института юридической ответственности за ущерб, причиненный медицинским оборудованием с элементами искусственного интеллекта, медицинским роботом, диагностическими электронными комплексами и т. п. В настоящее время остается открытым вопрос об установлении ответственности за причинение вреда пациенту при оказании медицинской помощи с использованием технологий ИИ. Кто будет нести юридическую ответственность – эксплуатант ИИ, его разработчик, изготовитель, а если ущерб причинен в результате несанкционированного вмешательства в деятельность ИИ, то, вероятно, и лицо, осуществившее подобные действия? Юридическая ответственность может быть установлена только законом. Следовательно, правовое регулирование реализации гражданско-правовой, административной и уголовной ответственности должно стать основой для формирования института юридической ответственности за ущерб, причиненный пациенту при оказании медицинской помощи с применением технологий ИИ. При этом юридическая ответственность должна быть установлена в отношении как эксплуатанта, разработчика, производителя, так и лица, осуществляющего несанкционированное вмешательство в деятельность ИИ.
В настоящее время в большинстве стран мира нет четко установленных норм относительно ответственности за ущерб, причиненный искусственным интеллектом или роботами. Основная правовая концепция базируется на принципе вины, предполагающем наличие прямой или косвенной ответственности за действия, приведшие к причинению вреда.
Некоторые страны начали разрабатывать специальные законодательные акты, касающиеся использования ИИ. Например, рассматривается предложение о введении специального правового статуса для ИИ-систем, что позволит им нести ответственность за причиненный ущерб. В то же время такие инициативы неприемлемы, поскольку ответственность в первую очередь должна ложиться на людей – разработчиков, владельцев или пользователей технологий.
Председатель Конституционного суда РФ В.Д. Зорькин в июне 2024 г. во время открытой лекции в рамках Петербургского международного юридического форума обоснованно указал, что «для привлечения искусственного интеллекта к ответственности нет ровно никаких оснований. Их нет уже по одной причине отсутствия субъективной стороны – вины»2.
Одна из ключевых проблем заключается в том, что многие алгоритмы ИИ работают как черные ящики, что затрудняет понимание принятых решений и их обоснование. Это создает сложности, когда необходимо установить, кто именно несет ответственность за ошибку.
Существуют дилеммы, связанные с этикой использования ИИ. Например, если ИИ принимает решение, которое оказалось неверным, возникает вопрос о правомерности такого подхода. Важно учитывать и этические нормы, и социальные последствия.
Таким образом, с развитием ИИ и робототехники появляется необходимость в создании четких правовых норм, касающихся ответственности за причинение вреда. Судебная практика в этой области показывает, что решение о том, кто несет ответственность, сложно и во многом зависит от обстоятельств дела. Крайне важно продолжать разработку правовых рамок, чтобы обеспечить защиту прав граждан и стимулировать инновации в сфере технологий.
Классические правовые нормы не всегда применимы к ИИ, что создает правовую неопределенность. Возможно, потребуется разработка новых законов и нормативных актов, четко определяющих ответственность в таких ситуациях. Эта проблема становится особенно актуальной в контексте возрастания доверия к ИИ со стороны медицинских работников и пациентов.
Правовое регулирование ИИ в медицине столкнется со множеством сложных и взаимосвязанных вопросов. Защита персональных данных, определение ответственности за ошибки, этические нормы и взаимодействие между медицинскими работниками и ИИ – все это требует внимательного изучения и разработки новых подходов. Безусловно, успешное внедрение ИИ в медицинскую практику возможно только при условии четкого и продуманного правового регулирования, которое сможет обеспечить как безопасность пациентов, так и эффективность лечения.
Можно предположить, что текущее законодательство в области искусственного интеллекта зачастую представляет собой «правовую песочницу», а не окончательный законодательный акт и носит временный характер. В то же время в Российской Федерации активно ведутся разработки в области правового регулирования использования ИИ, что свидетельствует о стремлении к созданию более структурированного и устойчивого подхода к этой новой технологии.
Так, Распоряжением Правительства Российской Федерации № 2129-р была утверждена Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 г.1 (далее – Концепция). Указанный документ на сегодняшний день является комплексом правовых перспектив в области искусственного интеллекта и робототехники, а также определяет направления работы по созданию многоаспектной правовой платформы. Этот подход ориентирован на систематизацию норм и правил, касающихся разработки, внедрения и использования ИИ и роботизированных систем, обеспечивая юридическую четкость и защиту интересов всех участников процесса.
Концепция исходит из того, что для развития технологий искусственного интеллекта и робототехники необходимо создание регуляторной среды, комфортной для безопасного развития и внедрения указанных технологий, основанной на балансе интересов человека, общества, государства, компаний-разработчиков систем ИИ и робототехники, а также потребителей их товаров, работ, услуг. Однако представления об этом балансе существенно разнятся. В связи с этим Концепция оставляет открытыми и требующими дальнейшего обсуждения отдельные наиболее спорные вопросы, но может служить инструментом для сближения интересов человека, общества, государства и бизнеса в рассматриваемой сфере в ближайшие годы.
Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 г. представляет собой важный документ, который отражает стремление государства адаптировать правовую и нормативную базу к быстро развивающимся технологиям. Этот документ нацелен на создание устойчивой правовой среды, способствующей инновациям и учитывающей как потенциальные риски, так и возможности, связанные с использованием ИИ и робототехники. Регулирование в этой области поможет обеспечить безопасность, защиту прав граждан и стимулирование технологического прогресса. Концепция учитывает положения Национальной стратегии, национальной программы «Цифровая экономика Российской Федерации», Стратегии развития информационного общества в Российской Федерации на 2017– 2030 гг., утвержденной Указом Президента Российской Федерации от 9 мая 2017 г. № 203, а также положения иных документов стратегического планирования, нормативных правовых актов и методических документов, в том числе международных организаций.
В Российской Федерации также готовится законопроект о регулировании в сфере искусственного интеллекта. Как сообщил в апреле 2023 г. заместитель председателя Комитета Государственной думы РФ по информационной политике А.В. Горелкин, особое внимание в документе будет уделяться защите рынка труда от негативного влияния ИИ2. Законопроект направлен на определение ответственности за разработку систем ИИ, создаваемый с их помощью контент, а также на предотвращение использования технологий мошенниками. Кроме того, он должен гарантировать гражданам безопасную цифровую среду.
Одновременно с этим акцент на ускорении темпов развития ИИ также обусловлен подготовкой стандартов в данной сфере, что позволит создать более эффективную и безопасную экосистему для внедрения технологий ИИ. Так, с 2023 г. Минцифры России разрабатывает стандарт для обработки персональных данных в системах и сервисах с использованием искусственного интеллекта. Основные цели стандарта включают установление четких требований к обработке персональных данных, чтобы гарантировать их безопасность и защиту; обеспечение соответствия новых технологий российскому законодательству в области защиты персональных данных. Стандарт будет включать рекомендации по интеграции защиты данных в процессы разработки и эксплуатации технологий ИИ, что позволит минимизировать риски утечек и неправомерного использования персональных данных.
Приказом Росстандарта № 1732 был сформирован специальный технический комитет по стандартизации – ТК 164 «Искусственный интеллект»1. Основной целью этого комитета является повышение эффективности работ по стандартизации в области искусственного интеллекта на национальном, межгосударственном и международном уровнях.
Также следует отметить, что Альянсом в сфере искусственного интеллекта совместно с представителями академического сообщества при поддержке Минэкономразвития и Аналитического центра при Правительстве был разработан Кодекс этики в сфере искусственного интел-лекта2. Его основная задача – установить общие этические принципы и стандарты поведения, которыми участники отношений в сфере искусственного интеллекта должны руководствоваться в своей деятельности. Эти принципы направлены на регулирование гражданских систем ИИ и охватывают этические аспекты, связанные с созданием, внедрением и использованием технологий ИИ на всех этапах их жизненного цикла.
Подводя итог, следует отметить, что развитие информационных технологий, цифровизация всех аспектов деятельности современного общества не обходит стороной и сферы оказания пациенту медицинской помощи, порождая при этом комплекс юридических проблем правового регулирования применения искусственного интеллекта в области здравоохранения, которые требуют своевременного разрешения.
Список литературы Правовые проблемы применения искусственного интеллекта в сфере здравоохранения
- Егорова М.А. Проблема правовой охраны объектов интеллектуальной собственности, созданных с использованием цифровых технологий // Вестник Университета имени О.Е. Кутафина (МГЮА). 2023. № 1. С. 127-138. DOI: 10.17803/2311-5998.2023.101.1.127-138 EDN: RHJHNR
- Еремеева П.А. Особенности применения цифровых технологий в здравоохранении // Стратегии бизнеса. 2020. Т. 8, № 8. С. 223-227. DOI: 10.17747/2311-7184-2020-8-223-227 EDN: CQXISD
- Лапина М.А. Организационно-правовые и финансовые аспекты цифровизации и внедрения технологий искусственного интеллекта в области здравоохранения // Финансы: теория и практика. 2022. Т. 26, № 3. С. 169-185. DOI: 10.26794/2587-5671-2022-26-3-169-185 EDN: PWITLG
- Nilsson N.J. Principles of artificial intelligence. Palo Alto, California, 1982. 476 p.