Применение технологий искусственного интеллекта в сфере здравоохранения: уголовно-правовые девиации

Бесплатный доступ

В работе поднимаются вопросы, связанные с выбором наиболее эффективной модели уголовно-правовой охраны общественных отношений, сопряженных с применением технологий искусственного интеллекта в сфере здравоохранения, а также осуществляется критический анализ выработанных и имеющихся в правовой науке подходов. С учетом особой значимости сферы здравоохранения, в первую очередь направленной на охрану жизни и здоровья граждан, правовой режим уголовно-правовой охраны на данный момент требует своевременной трансформации и выработки наиболее эффективной модели. Полагаем, что цифровые технологии и инновации должны не только способствовать позитивному развитию сферы здравоохранения, но и вызывать доверие у пациентов и медицинских работников, а также не провоцировать опасения по поводу их применения. Сложившийся правовой механизм может привести к тому, что медицинские организации могут отказаться от внедрения технологий искусственного интеллекта в клиническую практику под страхом привлечения их к административной ответственности, а их сотрудников - к уголовной. На основе изложенного предлагается выбор оптимальной модели уголовно-правовой охраны здравоохранительных общественных отношений, осложненных применением искусственного интеллекта.

Еще

Скусственный интеллект, машинное обучение, этика, право, ответственность, здоровье граждан, уголовно-правовая охрана, робот, робототехника

Короткий адрес: https://sciup.org/14129364

IDR: 14129364   |   DOI: 10.47475/2311-696X-2023-38-3-92-100

Текст научной статьи Применение технологий искусственного интеллекта в сфере здравоохранения: уголовно-правовые девиации

Система здравоохранения подвержена кардинальным изменениям вследствие процессов форсированной цифровизации в обществе. Медицина является, несомненно, одной из самых важных сфер по причине ее направленности на охрану наиболее значимых благ — жизни и здоровья граждан посредством использования новых инновационных подходов, нацеленных на предоставление рациональных и эффективных моделей для оказания медицинской помощи. В этом ключе применение технологий искусственного интеллекта можно назвать новым революционным решением в традиционной системе здравоохранения.

Однако в результате использования технологий искусственного интеллекта возникли опасения по поводу того, что наукоемкие цифровые технологии станут новым источником ошибок и утечек данных, которые могут иметь разрушительные последствия для пациентов и в целом для системы здравоохранения [1]. Цифровые инновации в медицине имеют огромные перспективы, но для их реализации необходимы соответствующие правила, сводящие к минимуму сопутствующие риски и угрозы.

Одними из актуальных вопросов современности являются: роль и место технологий искусственного интеллекта, используемых в сфере здравоохранения, перспективы их использования, выработка эффективной модели правового регулирования, а также возможность признания искусственного интеллекта, физически воплощенного в единице робототехники, объектом и (или) субъектом преступного правоотношения [2, с. 94–95]. Представленные направления в исследовании и последующем правовом регулировании, несомненно, важны, так как достижения в области развития искусственного интеллекта могут быть использованы для совершения преступлений, представляя прямую угрозу охраняемым правам и интересам человека, общества и государства.

Описание исследования

Искусственный интеллект — это термин, используемый для описания способности компьютерной программы выполнять задачи, связанные с человеческим интеллектом, такие как рассуждение и обучение [3, с. 31]. По мнению исследователей, искусственный интеллект может изменить здравоохранение, производя новые и важные идеи из огромного количества цифровых данных, созданных во время оказания медицинской помощи [4]. Многие специалисты полагают, что искусственный интеллект в целом окажет положительное влияние на систему здравоохранения, повысив точность диагнозов и эффективность оказания медицинской помощи [5]. Специалистами установлено то, что во многих задачах искусственный интеллект превосходит людей [6]. В некоторых областях медицинской диагностики, разработки лекарств и проведения лечения и хирургии представляется, что искусственный интеллект будет лучше, чем обученные медицинские работники [7].

Однако имеется и крайне противоположная точка зрения, согласно которой «системы искусственного интеллекта негативным образом окажут влияние на отношения между пациентом и медицинским работником, будут способствовать снижению квалификации последних, поставят неправильный диагноз или из-за ошибок в процессе принятия решений ненадлежащим образом вылечат пациентов» [8, с. 44].

Третья позиция авторов сводится к одновременному признанию перспектив технологий искусственного интеллекта и сохранению опасений по поводу их использования. Указанные соображения подчеркивают необходимость в нормативных правовых актах использовать потенциальные преимущества технологий искусственного интеллекта при минимизации любых сопутствующих рисков. Подобные инновации необходимы, если общество хочет реализовать результаты медицинских инноваций и избежать их негативного влияния. По мере того, как технологии искусственного интеллекта развиваются быстрыми темпами, специалисты из разных дисциплин формулируют опасения в отношении их использования, связанные с возможным причинением вреда здоровью пациентов, которые потребуют надлежащих правовых мер.

Несмотря на то, что в целях внедрения и развития технологий искусственного интеллекта в Российской Федерации вводятся экспериментальные правовые режимы, конкретное правовое регулирование ответственности за причинение вреда искусственным интеллектом действующим отечественным законодательством не предусмотрено. Об отсутствии правового регулирования технологий искусственного интеллекта и робототехники и решения вопроса ответственности за причинение вреда с их использованием прямо указано в распоряжении Правительства Российской Федерации от 19 августа 2020 г. № 2129-р «Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года»1.

Применение технологий искусственного интеллекта в здравоохранении вызывает множество вопросов, связанных с выбором оптимальной модели правового регулирования, возложением юридической ответственности на субъектов, вовлеченных в процесс их использования (разработчики, медицинские работники, их эксплуатирующие), а также проблем обезличивания персональных данных пациентов и предоставление искусственному интеллекту доступа к ним. При этом учитывая особую ценность жизни и здоровья граждан, мерам уголовной ответственности, призванным охранять наиболее важные общественные отношения, будет отдаваться превалирующее значение.

На данный момент стоит констатировать то, что системы искусственного интеллекта в здравоохранении в Российской Федерации применяются:

  • 1 . Как программное обеспечение (далее — ПО) с применением систем искусственного интеллекта, в этом случае ПО регистрируется как медицинское изделие;

  • 2 . Искусственный интеллект может быть составной частью и (или) принадлежностью медицинского робота, в этом случае роботизированное изделие признается медицинским изделием. При этом ПО уже не регистрируется, а является составной частью медицинского изделия.

С 2021 года активно разрабатываются национальные стандарты по использованию систем искусственного интеллекта в клинической медицине. На данный момент принято более 18 стандартов2.

Таким образом, технологии искусственного интеллекта в медицине могут быть применены:

  • —    в качестве физических объектов в роботизированной хирургии, в которой медицинский робот оснащен технологиями искусственного интеллекта, являющиеся его неотъемлемой частью;

  • —    виртуально (в качестве ПО) отдельно от робота в виде киберфизической и иных «искусственных» систем [9, с. 82].

Необходимо отметить, что в Роздрав-надзоре зарегистрированы следующие медицинские изделия, использующие технологию искусственного интеллекта: ПО Webiomed предназначено для автоматического анализа обезличенных медицинских данных с целью прогнозирования возможного развития заболеваний и их осложнений1; ПО Care Mentor AI помогает врачам-рентгенологам определять наличие у пациентов признаков злокачественных новообразований, туберкулеза пневмонии и других социально-значимых патологий2.

Модели уголовной ответственности за вред, причиненный в результате эксплуатации систем искусственного интеллекта

Первая модель — наделение систем искусственного интеллекта правосубъектностью, в результате чего появляется возможность рассматривать их как полноправных субъектов уголовной ответственности.

Исследование вопросов, связанных с выбором оптимальной модели правового регулирования, возложением ответственности на субъекты, вовлеченные в процесс его использования, в последнее время уделяется значительное внимание. И если ученых-правоведов значительным образом смущает рассмотрение его в качества субъекта преступления и установления субъективной стороны состава преступления, невозможности реализации многих институтов уголовного закона в отношении них, то зарубежные специалисты предлагают весьма интересные модели юридической ответственности систем искусственного интеллекта.

В уголовно-правовой науке имеются абсолютно противоположные точки зрения о возможности привлечения к уголовной ответственности искусственного интеллекта. Стоит согласиться с авторами, полагающими то, что «вопрос о привлечении искусственного интеллекта к уголовной ответственности за совершение преступления неразрывно связан с наделением его правосубъектностью» [10, с. 569]. Одни специалисты предлагают признать его субъектом преступления, а следовательно, применить к нему меры уголовной ответственности, а другие — об абсолютной невозможности применить к нему меры уголовно-правового воздействия [11, с. 24–25].

Выработано несколько подходов к совершенствованию правового регулирования в указанной области:

  • —    признание искусственного интеллекта самостоятельным субъектом права и личностью [12, с. 120–125];

  • —    признание искусственного интеллекта юридическим лицом [13, с. 24]. Так, в некоторых юридических исследованиях содержатся предложения по внедрению законодательства о преследовании роботов в случае совершения ими преступления, где в качестве наказания для таких систем предусматривается «перепрограммирование» или уничтожение программы [14, с. 171–201];

  • —    наделение искусственного интеллекта признаками вещи [15];

  • —    возможности наделения искусственного интеллекта правовым статусом домашних животных [16, с. 47–48];

  • —    признание искусственного интеллекта искусственным лицом [17, с. 476].

К этому следует добавить, что существует и иная точка зрения, выраженная в разработанном в последнее время в Совете Федерации Федерального Собрания Российской Федерации законопроекте о правовом регулировании отношений в сфере оборота роботов, согласно которой целесообразно на территории нашей страны вовсе запретить оборот роботов, обладающих возможностью самостоятельного принятия решений и способных действовать на основании самостоятельно сформулированного поведенческого алгоритма3.

Полагаем, что на данном этапе наделять технологии искусственного интеллекта в здравоохранении правосубъектностью юридически нецелесообразно [18, с. 378]. Несомненно, стоит полагать, что в результате деятельности программы может быть причинен вред жизни или здоровью пациентов или иным объектам уголовно-правовой охраны, в то время, как производитель сделал все возможное, работник, который его эксплуатировал, не нарушал соответствующих правил при применении, но в процессе самообучения программа выдала нежелательные действия.

Вторая модель — возложение мер уголовной ответственности на пользователя систем искусственного интеллекта — на медицинскую организацию и медицинского работника, их эксплуатирующих (текущая модель правового регулирования).

Несомненно, стоит повторить то, что искусственный интеллект при функционировании и реализации своей деятельности может причинить ущерб гражданам, обществу и в целом государству. Общеправовой подход, признанный всем мировым сообществом, гласит, что ущерб, причинённый незаконными действиями других, должен быть возмещен правонарушителем или лицом, ответственным за действия нарушителя.

В отличие от других зарубежных стран в Российской Федерации субъект оказания медицинской помощи — не врач, а непосредственно медицинская организация (статья 98 Федерального закона от 21 ноября 2011 г. № 323-ФЗ «Об основах охраны здоровья граждан в Российской Федерации»1). Вред, причиненный жизни и (или) здоровью граждан при оказании им медицинской помощи, возмещается медицинскими организациями. Однако возмещение вреда не освобождает медицинских работников от привлечения к ответственности (статьи 1085 и 1087 Гражданского кодекса Российской Федерации2). В связи с этим ответственность в Российской Федерации возлагается на двух субъектов: медицинскую организацию (к которой предъявляются требования по наличию лицензии) и возможность подачи гражданско-правового иска, а также на медицинского работника , эксплуатирующего системы искусственного интеллекта или медицинскую робототехнику. В данном случае при наличии признаков состава преступления медицинский работник может подлежать уголовной ответственности.

Однако возложение ответственности, в том числе уголовной только на медицинских работников может повлечь негативное отношение и неодобрение со стороны медицинского сообщества, которые будут считать себя сильно уязвимыми и ущемленными. В свою очередь медицинские организации могут отказаться от внедрения искусственного интеллекта в клиническую практику под страхом привлечения их к административной ответственности, а их сотрудников — к уголовной. Поэтому полагаем, что такой подход не выдерживает критики и нуждается в конкретизации.

Третья модель — возложение мер уголовной ответственности на создателей систем искусственного интеллекта или лиц, обучающих систему, функционирующую на основе искусственного интеллекта (разработчика систем искусственного интеллекта).

Установление мер уголовно-правового реагирования за деяния разработчиков и создателей систем искусственного интеллекта может повлечь отказ производителей от разработки и создания систем искусственного интеллекта и тем самым может снизить инвестиционную привлекательность. Чрезмерно обременительные правила могут ограничить развитие инноваций, сводя к минимуму потенциал искусственного интеллекта для реализации преимуществ, связанных со здоровьем. В то же время отсутствие регулирования могут привести к широкомасштабному ущербу, что снизит доверие к рассматриваемой цифровой технологии, связанному со здоровьем (со стороны самих пациентов и медицинских работников), и, возможно, к гораздо более жесткому регулированию.

В этом плане представляется схожим опыт США, в законодательстве которого определено то, что производитель не привлекается к ответственности, если программное обеспечение на основе искусственного интеллекта было проверено и одобрено Управлением по санитарному надзору за качеством пищевых продуктов и медикаментов США3.

В процессе выработки оптимальной модели юридической ответственности возникнет резонный вопрос: почему привлекаются к ответственности создатели или лица, обучающие систему, функционирующую на основе искусственного интеллекта (разработчика систем искусственного интеллекта), если Росздравнадзор одобрил данное медицинское изделие. В процессе регистрации медицинского изделия принимало участие множество субъектов (лица, участвующие в контроле, аккредитованная организация, проводящая технические испытания, спонсор клинического исследования, другие лечебные учреждения, вовлеченные в исследование).

В связи с этим в России сложился подход, согласно которому в настоящий момент указанные субъекты ответственности не подлежат. Медицинские изделия, разработанные для их последующего применения, обязательно подлежат государственной регистрации в Росздравнадзоре. Регистрация и выдача свидетельства о регистрации является подтверждением (фиксацией) факта безопасности и качества медицинского изделия (программное обеспечение с системами искусственного интеллекта). Однако в связи с тем, что регистрационные действия, в которые вовлекаются субъекты контроля и надзора, фактически являются монополией государственных органов, то и говорить о возможном (перспективном) привлечении их к уголовной ответственности не целесообразно. Медицинская организация провела клинические испытания, но в процессе эксплуатации медицинского изделия, оснащенного системами искусственного интеллекта, был причинен вред здоровью человека. Для подобного обстоятельства следует проводить дорогостоящие экспертизы.

Оператор информационных систем может подлежать уголовной ответственности за последствия использования технологий искусственного интеллекта. К примеру, если в результате действий оператора произошло незаконное распространение персональных данных пациентов, подпадающее под признаки состава преступления (ст. 137 УК РФ).

Е. П. Третьякова предполагает, что «на уровне законодательства должен быть установлен единственный субъект ответственности или же вопрос должен разрешаться в судебной плоскости с детальным установлением причинной связи между ошибкой робота и причинением вреда» [19, с. 57]. Так, исследователь предлагает «использовать повышенную ответственность для разработчиков медицинских изделий» [19, с. 58].

При условии причинения тяжкого вреда здоровью и неосторожной формы вины действия разработчиков целесообразно квалифицировать по п. «в» ч. 2 ст. 238 УК РФ [20, с. 158]. Однако полагаем, что действующее состояние правового регулирования в сфере здравоохранения не позволяет говорить о возложении ответственности на данных субъектов.

Четвертая модель — распределение мер уголовной ответственности по жизненному циклу систем искусственного интеллекта (производитель, медицинский работник учреждения или иные субъекты, вовлеченные в процесс эксплуатации системы искусственного интеллекта в медицине) .

Несомненно, при данной модели уголовной ответственности возникнут сложности определения того, на каком этапе возникла проблема, которая привела к негативному результату, и кто виновен. Большое значение будет отдаваться установлению добросовестности субъектов в процессе эксплуатации систем искусственного интеллекта (правильно ли применяли медицинское изделие, оснащенное искусственным интеллектом, не было ли модификации, была ли действительная необходимость в его применении в конкретной ситуации, загрузили ли все обновления). Полагаем, что представленный подход требует тщательного и детального правового регулирования, которое на данный момент отсутствует.

Схожей позиции придерживается Европарламент, согласно Резолюции которого от 16 февраля 2017 г. 2015/2013 (INL) «Гражданско-правовые нормы о робототехнике» ответственность может возлагаться на одного из агентов (производитель, оператор, владелец или пользователь ИИ)1.

Согласно положениям отечественного законодательства любые медицинские изделия, разработанные для их последующего применения, подлежат государственной регистрации в Росздравнадзоре. Регистрация и выдача свидетельства о регистрации является подтверждением (фиксацией) факта безопасности и качества медицинского изделия. Однако в связи с тем, что регистрационные действия, в которые вовлекаются субъекты контроля и надзора, фактически являются монополией государственных органов, то и говорить о возможном (перспективном) привлечении их к уголовной ответственности на данный момент нельзя2. Пунктом 3 постановления Правительства Российской Федерации от 27 декабря 2012 г. № 1416 «Об утверждении Правил государственной регистрации медицинских изделий»3 установлено, что государственную регистрацию медицинский изделий осуществляет Росздравнадзор. Государственная регистрация проводится «…на основании результатов технических испытаний, токсикологических исследований, клинических испытаний, представляющих собой формы оценки соответствия медицинских изделий с учетом классификации в зависимости от потенциального риска их применения, и экспертизы качества, эффективности и безопасности медицинских изделий с учетом классификации в зависимости от потенциального риска их применения…»1.

С учетом инновационного характера указанной новой цифровой технологии однозначно исключить ситуацию, связанную с тем, что в процессе эксплуатации медицинского изделия, оснащенного системами искусственного интеллекта, был причинен вред, несмотря на то, что были проведены технические, токсикологические и клинические испытания и было получено регистрационное удостоверение на медицинское изделие, невозможно.

Несомненно, представляется достаточно сложным отграничить вред, который наступил в результате применения медицинского робота, от некачественно оказанной медицинской помощи, в результате которой наступили негативные последствия и для подобного обстоятельства следует проводить дорогостоящие экспертизы, в том числе компьютерные. Однако их проведение будет необходимым и позволит установить лиц, от действий (бездействия) которых могли наступить негативные последствия, позволит пациентам быть защищенными с точки зрения оказания им медицинской помощи, повысит доверие к медицине, а также в целом увеличит потенциал юридической ответственности и неотвратимости наказания.

Учитывая особый статус систем искусственного интеллекта, реализуемого в форме медицинских изделий, их цифровую природу, высокий риск их применения, а также в целях дифференциации ответственности и возможности привлечения к уголовной ответственность конкретных субъектов, непосредственно участвующих в эксплуатации систем, предлагаем сформировать особый (специальный) порядок регистрации медицинских изделий с системами искусственного интеллекта, выделив его в постановлении Правительства Российской Федерации от 27 декабря 2012 г. № 1416 «Об утверждении Правил государственной регистрации медицинских изделий»2. Особый (специальный) порядок регистрации медицинских изделий с системами искусственного интеллекта будет включать возложение персональной ответственности не на юридических лиц — организаций, осуществляющих деятельность на основе лицензии, а на конкретных физических лиц, которые подписывали (утверждали) итоговый документ на каждом из этапов оборота. Поддерживаем мнение специалистов, которые считают, что требования к разработке и применение искусственного интеллекта должны быть разработаны в каждой сфере с учетом своей специфики [21, с. 423]. Указанное обстоятельство позволит сформировать правовой режим безопасного оборота медицинских изделий, возложить персональную (в том числе уголовную) ответственность на субъектов, эксплуатирующих технологии искусственного интеллекта, а также сформировать уголовно-правовые запреты неправомерным действиям, что позволит охранять наивысшие ценности (жизнь и здоровье граждан) средствами закона.

Подобная модель ответственности предопределит судьбу будущих решений и доверие медицинского сообщества к этим решениям, при ином подходе — они могут саботировать его применение. Большое значение отдается и доверию пациентов к применению технологий искусственного интеллекта в отношении них [22, с. 327].

Заключение

Несомненно, технологии развиваются быстрее, чем нормативные и этические аспекты [23, с. 574]. В здравоохранении, в котором ставится под охрану жизнь и здоровье пациентов, права врачебного сообщества должны быть несомненно соблюдены, а цифровым технологиям предоставлено необходимая «свобода» в развитии. В связи с этим большую роль следует отдать пострегистрационному мониторингу и формированию указанной системы. Полагаем, что действующий подход уголовно-правового реагирования на негативные реакции придется трансформировать в связи с тем, что защите от цифровых девиаций подлежат наиболее важные общественные отношения (жизнь и здоровье пациентов). При этом правовой режим безопасного оборота медицинских изделий с использованием технологий искусственного интеллекта позволит возложить уголовную ответственность на субъектов, вовлекаемых в общественные отношения на всех этапах жизненного цикла искусственного интеллекта. Следует согласиться с мнением авторов, которые утверждают, что «трансформация нормативного регулирования и уголовно-правовой охраны общественных отношений, возникающих в связи с созданием и применением технологий искусственного интеллекта, неизбежно повлечет и необходимость в выработке и за- определения понятия «искусственный интел-креплении в федеральном законодательстве лект»» [24, с. 87].

Список литературы Применение технологий искусственного интеллекта в сфере здравоохранения: уголовно-правовые девиации

  • Da Silva, M., Horsley, T., Singh, D. et al. Legal concerns in health-related artificial intelligence: a scoping review protocol // Systematic Reviews. 2022. No. 11. Art. 123. DOI: https://doi.org/10.1186/s13643-022-01939-y
  • Хамидуллина Е. В. Искусственный интеллект в медицине: правовые и этические аспекты // Медицинское право: теория и практика. 2022. № 3-4 (17-18). С. 92-96.
  • Морхат П. М. К вопросу об определении понятия искусственного интеллекта // Право и государство: теория и практика. 2017. №. 12 (156). С. 25-32.
  • Fosch-Villaronga, E., Khanna, P., Drukarch, H. et al. The Role of Humans in Surgery Automation // Int J of Soc Robotics. 2023. No. 15. Pp. 563-580. DOI: https://doi.org/10.1007/s12369-022-00875-0
  • Topol E. High-performance medicine: the convergence of human and artificial intelligence // Nat Med. 2019. No. 25. Pp. 44-56.
  • Secinaro S., Calandra D., Secinaro A. et al. The role of artificial intelligence in healthcare: a structured literature review // BMC Med Inform Decis Mak. 2021. Vol. 21, no. 1. P. 125. DOI: https://doi.org/10.1186/ s12911-021-01488-9
  • Davenport T., Kalakota R. The potential for artificial intelligence in healthcare // Future Healthc J. 2019. Vol. 6, no. 2. Pp. 94-98. DOI: https://doi.org/10.7861/futurehosp.6-2-94
  • Смышляев А. В., Мельников Ю. Ю., Шахабов И. В. Телемедицинские технологии как инструмент повышения доступности медицинской помощи для населения на современном этапе: ключевые проблемы и перспективы развития // Главврач. 2020. № 5. С. 44-48.
  • Лаптев В. А. Понятие искусственного интеллекта и юридическая ответственность за его работу // Право. Журнал Высшей школы экономики. 2019. № 2. С. 79-102.
  • Хисамова З. И., Бегишев И. Р. Уголовная ответственность и искусственный интеллект: теоретические и прикладные аспекты // Всероссийский криминологический журнал. 2019. Т. 13, № 4. С. 564-574.
  • Иващенко М. А. Новые формы организованной преступности: автореф. дис. ... канд. юрид. наук. Москва, 2022. 34 с.
  • Дремлюга Р. И., Дремлюга О. А. Искусственный интеллект — субъект права: аргументы за и против // Правовая политика и правовая жизнь. 2019. №. 2. С. 120-125.
  • Гаджиев Г. А. наблюдается ли робот-агент? (Поиск правовых форм для регулирования цифровой экономики) // Журнал российских прав. 2018, № 1. С. 15-30.
  • Hallevy G. The Criminal Liability of Artificial Intelligence Entities — from Science Fiction to Legal Social Control // Akron Intellectual Property Journal. 2010. Vol. 4, iss. 2. Pp. 171-201.
  • Лаптев В. А. Понятие искусственного интеллекта и юридическая ответственность за его работу // Право. Журнал Высшей школы экономики. 2019. № 2. C. 79-102.
  • Медведев А. И. Концепция правосубъектности искусственного интеллектав российской юридической науке: критический анализа // Научный компонент. 2022. № 1 (13). C. 40-55.
  • Мосечкин И. Н. Искусственный интеллект и уголовная ответственность: проблемы становления нового вида субъекта преступления // Вестник Санкт-Петербургского университета. Право. 2019. 10 (3). С. 461-476.
  • Филипова И. А., Коротеев В. Д. Будущее искусственного интеллекта: объект или субъект права? // Journal of Digital Technologies and Law. 2023. Т. 1. №2. С. 359-386.
  • Третьякова Е. П. Использование искусственного интеллекта в здравоохранении: распределение ответственности и рисков // Цифровое право (Digital Law Journal). 2021. Т. 2, №4. С. 51-60.
  • Петрикова С. В., ЛаврушкинаА. А. Субъективная сторона состава преступления при причинении вреда здоровью искусственным интеллектом // Социально-политические науки. 2021. Т. 11, №. 6. С. 156-161.
  • Ерахтина О. С. Подходы к регулированию отношений в сфере разработки и применения технологий искусственного интеллекта: особенности и практическая применимость // Journal of Digital Technologies and Law. 2023. Т. 1, №2. С. 421-437.
  • Галлезе-Нобиле К. Правовые аспекты использования искусственного интеллекта в телемедицине // Journal of Digital Technologies and Law. 2023. Т. 1, № 2. С. 314-336.
  • ШутоваА. А. Криминальные риски оборота медицинских роботов // Russian Journal of Economics and Law. 2023. Т. 17, № 3. С. 571-585. DOI: https://doi.org/10.21202/2782-2923.2023.3.571-585
  • Бегишев И. Р., Латыпова Э. Ю., Кирпичников Д. В. Искусственный интеллект как правовая категория: доктринальный подход к разработке дефиниции // Актуальные проблемы экономики и права. 2020. Т. 14, № 1. С. 79-91. DOI: http://dx.doi.Org/10.21202/1993-047X.14.2020.1.79-91
Еще
Статья научная