Нормы и правовая доктрина юридической ответственности роботов и искусственного интеллекта
Автор: Заплатина Татьяна Сергеевна
Журнал: Вестник Российского нового университета. Серия: Человек и общество @vestnik-rosnou-human-and-society
Рубрика: Юридические науки
Статья в выпуске: 3, 2019 года.
Бесплатный доступ
Посвящено поиску и систематизации нормативных документов и правовой доктрины касательно вопроса юридической ответственности роботов и искусственного интеллекта. Отмечено, что проблема ответственности искусственного интеллекта нечетко решена в правовых системах различных государств, интеграционных образований и требует дополнительных уточнений. Подчеркнута необходимость вносить изменения в нормативные акты и устанавливать ответственных лиц, в случае если ответственность является разрозненной или ее проверка затруднена в отношении наступившего ущерба. Сказано, что Европейский союз выступает за рассмотрение искусственного интеллекта и робота в качестве новой промежуточной юридической фигуры, стоящей между определением робота как вещи (объект права) и физического лица. Сделан вывод, что данная концепция имеет ряд логических оснований и может быть взята за основу усовершенствования законодательства.
Нормативное регулирование, роботы, искусственный интеллект, европейский союз, великобритания, испания
Короткий адрес: https://sciup.org/148309234
IDR: 148309234 | DOI: 10.25586/RNU.V9276.19.03.P.128
Текст научной статьи Нормы и правовая доктрина юридической ответственности роботов и искусственного интеллекта
В ближайшем будущем люди будут жить с роботами, ботами, андроидами и другими формами искусственного интеллекта
(ИИ), которые уже являются частью общественной жизни и становятся все более сложными. Развитие роботов и ИИ происходит в направлении их большей само-
* Работа выполнена при финансовой поддержке РФФИ, проект № 18-29-16150.
Заплатина Т.С. Нормы и правовая доктрина юридической ответственности... 129
стоятельности, гибкости, способности адаптироваться и/или принимать решения вне предопределенных планов с помощью методов вероятности, статистики и закономерностей.
В этом контексте можно говорить об этапах развития технологий от простого подключения к Интернету до автономного взаимодействия ИИ и роботов с окружающей средой, независимо от контроля человека, с возможностью объединения людей с роботами и ИИ (киборги). Для обеспечения безопасности людей необходимо решать не только технические, но и этические, социальные, экономические, медицинские и юридические вопросы.
Настоящее исследование посвящено анализу нормативных документов и правовой доктрины в вопросе юридической ответственности роботов и ИИ и определению основ, которые должны быть реализованы на наднациональном (на примере Европейского союза (ЕС)) и национальном уровне для решения данной проблемы.
Научные исследования
Рассматривая вопрос юридической ответственности роботов и ИИ, следует начать с их определения и сопоставления понимания ИИ, его сущности с определением субъекта права, права и деликто-способности. Так, Королевская академия испанского языка определяет робота как «машину или программируемое электронное устройство, способное манипулировать объектами и выполнять операции, ранее предназначенные только для людей», а интеллект как «умение понимать (знание, понимание, акт понимания), умение решать проблемы» [2, p. 30]. В свою очередь, ИИ включает умение выполнять операции, сопоставимые с теми, которые выполняет человеческий разум, такие как обучение или логические рассуждения. ИИ может быть автономным или полуавтономным. В связи с этим Хавьер Антонио Ниса Авила говорит о четырех уровнях в разделении понятий ИИ и робототехники:
-
1. Запрограммированные интеллектуальные системы. Представляют собой машины с интегрированными роботизированными системами, которые помогают их операторам или владельцам выполнять автоматизированные задачи, но которые сами по себе не являются роботами, потому что они всего лишь малые роботизированные системы, интегрированные в неро-ботизированную систему.
-
2. Неавтономные роботы. В своей совокупности на уровне промышленного строительства являются роботами и предназначены для выполнения простых программных задач без необходимости помощи со стороны человека; более или менее способны принимать механические решения, связанные исключительно с их задачей.
-
3. Автономные роботы. Обладают возможностью разрабатывать сложные задачи и справляться с ними, расставляя приоритеты и принимая свои собственные решения со свободой в рамках определенной области работы.
-
4. ИИ. Механические системы, которые воспринимают внешнюю среду сами по себе, без внешних запрограммированных заказов, со способностью различать обстоятельства, которые происходят вокруг него. Аналогичным образом системы ИИ должны подчиняться приказам других систем ИИ, а также людей, которые взаимодействуют с ними [5].
Международная организация по стандартизации определяет робота (ISO 8373) как «многофункциональный перепрограммируемый манипулятор с различными степенями свободы, способный манипу-
130 в ыпуск 3/2019
лировать материалами, деталями, инструментами или специальными устройствами с переменными траекториями, запрограммированными для выполнения различных задач». В этом контексте для определения интеллектуального робота должны быть приняты во внимание следующие характеристики:
-
• способность приобретать автономию посредством датчиков и/или обмена данными с окружающей их средой (взаимосвязанность) и анализа указанных данных;
-
• способность учиться через опыт и взаимодействие;
-
• способность адаптировать свои поведение и действия к окружающей среде [2, p. 31].
Итак, чтобы рассматривать вопрос юридической ответственности ИИ и роботов, следует дать четкое определение ИИ или интеллектуального робота в аспекте составляющих субъекта ответственности. В данном аспекте важное значение имеют автономия воли, способность к объективной оценке, умение понимать и принимать решения, соотношение интеллекта людей с кибернетическим.
Согласно теории государства и права субъектом права является юридическое или физическое лицо, обладающее по правy способностью нести субъективные права и выполнять корреспондирующие этим правам юридические обязанности. На наш взгляд, ИИ может являться деликтоспособным субъектом права при осуществлении деятельности без постоянного контроля людей.
Отсутствие регулирования в отношении ответственности интеллектуальных роботов может быть контрпродуктивным для развития технологий и рынка робототехники. Поэтому очень важно установить параметры производительности с точки зрения ограничений, условий и ответ- ственности, для которых будет необходимо определить, как машина может считаться частично или полностью ответственной за свое поведение и может ли она быть отнесена к какой-либо из юридических категорий, существующих в настоящее время (т.е. роботов следует считать физическими, юридическими лицами, животными или объектами). В отношении ответственности за действия роботов мы должны учитывать не только то, что может делать робот, но и то, что могут сделать люди в отношении контроля над ним.
Регулирование
Рассмотрим детальнее существующие в европейских государствах нормы ответственности. Так, в соответствии с Гражданским кодексом Испании гражданская ответственность – это обязательство возместить убытки, причиненные при исполнении своих обязательств, понесенные в результате мошенничества, халатности или правонарушения (ст. 1101 ГК Испании [1]), имеющее своей целью восстановить экономический баланс до причинения ущерба. В существующей правовой базе роботы не могут нести ответственность за действия или бездействие, которые наносят ущерб третьим лицам.
Система внедоговорной гражданской ответственности включена в ст. 1902 Гражданского кодекса. Тот факт, что роботы обладают способностью быть автономными и самообучающимися, определяет, что их действия могут не находиться под контролем человека. И если это не урегулировано в законе, то может быть трудно фактически доказать причинно-следственную связь ущерба, нанесенного роботами.
Чем больше увеличивается их автономия, тем меньше ответственности распределяется между несколькими участниками, которые взаимодействуют с роботом: про-
Заплатина Т.С. Нормы и правовая доктрина юридической ответственности...
граммист, оператор, покупатель, владелец, пользователь робота и т.д. Традиционных норм гражданской ответственности недостаточно для того, чтобы создать юридическую ответственность за ущерб, причиненный интеллектуальным роботом, поскольку они не позволяют определить сторону, которая должна взять на себя ответственность за возмещение ущерба. Следовательно, несмотря на автономность ИИ, нельзя возложить на самого робота ответственность за действия или бездействие, в случае если действия или бездействие роботов вызвали причинение ущерба. В Испании родители несут ответственность за действия или бездействие своих детей в возрасте до четырнадцати лет и до достижения ими возраста двенадцати лет они не обязаны их слушать [2, p. 31].
В связи с этим рассмотрим позицию Г.С. Коула, отмечающего, что ИИ следует рассматривать как особую услугу. Он приводит пример из прецедентного права, касающийся «обязанности обеспечивать интересы», которую должны выполнять системы ИИ. В рамках данного дела школьный округ подал иск о халатности в отношении статистического бюро, которое (предположительно) предоставило неточные расчеты стоимости сгоревшей школы, в результате чего школьный округ понес убытки из-за недостаточной страховки. Рассматриваемая обязанность заключается в предоставлении информации с необходимостью обеспечить интересы школьного округа. Суд указал, что в рассматриваемой ситуации истец будет полагаться на информацию статистического бюро и, следовательно, не должен нести бремя чужих профессиональных ошибок [3].
Вследствие этого Г.С. Коул указывает, что в рамках английского права также предполагается, что программное обеспе- чение действительно является продуктом, где разработчики систем ИИ обязаны гарантировать, что их системы не имеют дефектов проектирования или заводского брака, поэтому он относит деятельность ИИ к особо опасным видам деятельности. Г.С. Коул предполагает, что производители системы ИИ должны знать об их ограничениях и эта информация должна быть сообщена лицам, взаимодействующим с ИИ. Хорошо известно, что поставщики обязаны сообщать покупателям о любых известных недостатках, но как можно установить скрытые недостатки?
Получается, если система ИИ действительно является продуктом или услугой, она должна продаваться с гарантией; даже если нет явной гарантии, предоставленной продавцом, существует подразумеваемая – «достаточная и разумная по срокам гарантия» (если использовать норму из закона о продаже товаров Великобритании 1979 г. [6]).
В некоторых юрисдикциях допускается аннулирование подразумеваемых гарантий согласно положениям договора. Тем не менее, когда приобретается система ИИ, встроенная в другие товары (например, в автомобиль), маловероятно, что любые такие договорные исключения (например, между производителем автомобиля и поставщиком программного обеспечения ИИ) могут быть успешно переданы покупателю автомобиля.
Выходит, что правовое положение ИИ и роботов в части ответственности неоднозначно и с позиции ответственности создателей ИИ. Дж. Кингстон отмечает, что вопрос о том, могут ли системы ИИ нести юридическую ответственность, зависит как минимум от трех факторов:
-
1. Существующие ограничения систем ИИ, а также то, известны ли они и доведены ли эти сведения до покупателя.
-
2. Является ли система ИИ продуктом или услугой.
-
3. Ответственность наступает за умышленное деяние (mens rea в английском праве) или за правонарушения строгой ответственности (strict liability offence) [4].
132 в ыпуск 3/2019
Автор разделяет ограничения систем ИИ на те, которые влияют как на системы ИИ, так и на специалистов-людей, и на те, что ограничивают технологию ИИ по сравнению с людьми. Ограничения, которые влияют на обе категории, связаны со знаниями, специфичными для данной проблемы.
Заключение
Вопрос ответственности ИИ нечетко решен в правовых системах различных государств, международных организаций и интеграционных объединений и требует дополнительных уточнений. Недостатки действующей нормативно-правовой базы в области договорной ответственности также очевидны, поскольку наличие роботов, предназначенных для ведения переговоров по договорным положениям и заключению договоров, делает неприменимыми традиционные правила, которые подчеркивают необходимость принятия новых эффективных и обновленных стандартов в соответствии с технологическими достижениями и инновациями.
Если сравнивать робота с физическим лицом, то ему не хватает личностного элемента. В соответствии с ГК Испании «личность приобретается в момент рождения, как только произошло полное отделение от матки матери». Эти биологические элементы не могут встречаться в роботе. Интеллектуальные роботы приобретают некоторые навыки для выполнения определенных операций, сравнимых с человеческим разумом, таких как обучение или логическое мышление. Однако на сегодняшний день им не хватает других навыков, таких как эмоциональный интеллект, чтобы распознавать окружающую среду, и прежде всего им не хватает интуиции. Отсутствие этого детерминирует невозможность настройки машины как личности, так как их способ понимания и действия определяется по-разному.
В отчете ЕС по робототехнике за январь 2017 г. признается, что улучшения автономных и когнитивных способностей роботов делают их не просто инструментами и что обычных правил ответственности, таких как договорная и внедоговорная ответственность, недостаточно.
ЕС выступает за новую промежуточную юридическую фигуру, стоящую между вещами (объектами права) и физическими лицами. Предоставление прав и обязанностей интеллектуальным машинам может показаться странным, статус правосубъектности позволит роботам зарабатывать деньги, платить налоги, собственные активы и предъявлять иски или получать судебные иски, независимо от их создателей. Их создатели могут как предприниматели иметь права и обязанности (подобно юридическим лицам). «Электронное лицо» может быть комбинацией обоих правовых условий [2, p. 43].
ЕС говорит о правовых альтернативах в отношении этой ответственности, пока он не создаст конкретную юридическую личность роботов:
-
• Установить систему обязательного страхования, в которой производители или владельцы роботов будут обязаны подписать контракт на безопасность, от возможных повреждений, вызванных их роботами.
-
• Определить возможность и/или необходимость создания фонда ответственности роботов.
Заплатина Т.С. Нормы и правовая доктрина юридической ответственности... 133
-
• Разрешить производителю, программисту, владельцу или пользователю воспользоваться режимом ограниченной ответственности, если они вносят вклад в компенсационный фонд.
Данная концепция ЕС имеет целый ряд логических оснований и, наш взгляд, мо- жет быть взята за основу усовершенствования законодательства об ответственности в случае совершения правонарушений роботами и ИИ. Законодательство европейских государств, ЕС и международных организаций также должно быть подвергнуто изменениям.
Список литературы Нормы и правовая доктрина юридической ответственности роботов и искусственного интеллекта
- Codigo Civil: Real Decreto de 24 de julio de 1889 por el que se publica el Código Civil // Gobierno de España. URL: https://www.boe.es/buscar/act.php?id=BOE-A-1889-4763 (date of the application: 05.06.2019).
- González M.J.S. Regulación legal de la robótica y la inteligencia artificial: retos de futuro // Revista Jurídica de la Universidad de León. 2017. № 4. P. 25-50.
- Independent School District No. 454 v. Statistical Tabulating Corp. 359 F. Supp. 1095. N.Y., 1973.
- Kingston J.K.C. Artificial Intelligence and Legal Liability // Research and Development in Intelligent Systems XXXIII: Incorporating Applications and Innovations in Intelligent Systems XXIV. P. 269-279.
- Nisa Ávila J.A. Robótica e Inteligencia Artificial ¿legislación social o nuevo ordenamiento jurídico // El Derecho.com. URL: http://tecnologia.elderecho.com/tecnologia/internet_y_tecnologia/Robotica-Inteligencia-Artificiallegislacion-social-nuevo-ordenamiento_11_935305005.html (date of the application: 02.04.2019).
- Sale of Goods Act 1979 // Legislation.gov.uk. URL: https://www.legislation.gov.uk/ukpga/1979/54 (date of the application: 05.06.2019).