Гражданско-правовая ответственность при разработке и применении систем искусственного интеллекта и робототехники: основные подходы

Автор: Харитонова Ю.С., Савина В.С., Паньини Ф.

Журнал: Вестник Пермского университета. Юридические науки @jurvestnik-psu

Рубрика: Частноправовые (цивилистические) науки

Статья в выпуске: 4 (58), 2022 года.

Бесплатный доступ

Введение: изучение вопросов правового обеспечения безопасности и адекватности применения систем искусственного интеллекта привело нас к неизбежности обращения к проблемам ответственности при использовании систем искусственного интеллекта. Приоритет отдан исследованию цивилистических аспектов ответственности за вред, причиненный системами искусственного интеллекта и робототехники. Развитие технологий требует переосмысления многих юридических механизмов обеспечения безопасности применения искусственного интеллекта на основе баланса в части поддержания и стимулирования инновационных отраслей. Оценка реального уровня развития технологии искусственного интеллекта заставляет не только смотреть в будущее и реагировать на имеющиеся вызовы времени, но и создавать правила для ближайших прогнозов. И если раньше считалось, что не потребуется кардинальных изменений в регулировании института юридической ответственности, то сегодня оснований так говорить с абсолютной уверенностью уже нет. Причиной стало повышение степени автономности систем искусственного интеллекта при расширении спектра возможностей их применения. Искусственный интеллект обыденно применяется в креативных индустриях, при принятии решений в различных сферах человеческой деятельности, в беспилотном транспорте и т. д. Но все еще далеки от завершения дискуссии о субъектном составе систем искусственного интеллекта, ответственных за причинение вреда, о возможности применения механизмов безвиновной гражданско-правовой ответственности и даже надлежащих уровней регулирования подобных отношений. Цель: сформировать представление о направлениях правового регулирования гражданско-правовой ответственности при применении технологии искусственного интеллекта на основе анализа российских и зарубежных научных концепций и законодательства. Методы: эмпирические методы сравнения, описания, интерпретации; теоретические методы формальной и диалектической логики; частнонаучные методы: юридико-догматический и метод толкования правовых норм. Результаты: вопрос об ответственности разработчиков и владельцев (пользователей) систем искусственного интеллекта является весьма дискуссионным. Во многих странах принимаются кодексы этики искусственного интеллекта, однако необходима именно правовая регламентация, например подход к системе искусственного интеллекта как к источнику повышенной опасности, в отсутствие соответствующих правовых норм целесообразно использование механизма деликтной ответственности исходя из аналогии закона. Важное значение в плане выявления и привлечения к ответственности разработчиков и эксплуатантов систем искусственного интеллекта также приобретает стандартизация в рассматриваемой сфере (стандартизация баз данных, программного обеспечения, инфраструктуре и др.), нарушение требований которой также может служить условием привлечения в гражданско-правовой ответственности. Новым содержанием наполняются традиционные правовые понятия предмета, объекта и субъекта причинения вреда как для сферы договорной, так и внедоговорной ответственности. Выводы: анализ показал, что на современном этапе в законодательстве различных стран появляется мягкое регулирование в сфере ответственности за вред, причиненный системами искусственного интеллекта. Однако постепенно от выработки стратегий пора сделать конкретные шаги к созданию эффективных механизмов минимизации рисков причинения ущерба без привлечения к ответственности установленных лиц. Поскольку в процесс разработки систем искусственного интеллекта вовлечено много участников, обладающих самостоятельным правовым статусом (поставщик данных, разработчик, производитель, программист, дизайнер, пользователь), установить субъекта гражданско-правовой ответственности, если что-то пойдет не так, достаточно сложно и необходимо учитывать множество факторов. В отношении причинения вреда третьим лицам подход к системе искусственного интеллекта как к источнику повышенной опасности представляется закономерным и логичным, а в отсутствие соответствующих правовых норм целесообразно использование механизма деликтной ответственности исходя из аналогии закона. В рамках модели договорной ответственности требуется выработка общих подходов к определению продукта и последствий нарушений условий договора.

Еще

Искусственный интеллект, гражданско-правовая ответственность, самообучающееся программное обеспечение, взаимодействие человека с машиной, риски применения искусственного интеллекта, стандартизация систем искусственного интеллекта

Короткий адрес: https://sciup.org/147239654

IDR: 147239654   |   УДК: 347.2   |   DOI: 10.17072/1995-4190-2022-58-683-708

Civil liability in the development and application of artificial intelligence and robotic systems: basic approaches

Introduction: when studying legal issues related to safety and adequacy in the application of artificial intelligence systems (AIS), it is impossible not to raise the subject of liability accompanying the use of AIS. In this paper we focus on the study of the civil law aspects of liability for harm caused by artificial intelligence and robotic systems. Technological progress necessitates revision of many legislative mechanisms in such a way as to maintain and encourage further development of innovative industries while ensuring safety in the application of artificial intelligence. It is essential not only to respond to the challenges of the moment but also to look forward and develop new rules based on short-term forecasts. There is no longer any reason to claim categorically that the rules governing the institute of legal responsibility will definitely not require fundamental changes, contrary to earlier belief. This is due to the growing autonomy of AIS and the expansion of the range of their possible applications. Artificial intelligence is routinely employed in creative industries, decision-making in different fields of human activity, unmanned transportation, etc. However, there remain unresolved major issues concerning the parties liable in the case of infliction of harm by AIS, the viability of applying no-fault liability mechanisms, the appropriate levels of regulation of such relations; and discussions over these issues are far from being over. Purpose: basing on an analysis of theoretical concepts and legislation in both Russia and other countries, to develop a vision of civil law regulation and tort liability in cases when artificial intelligence is used. Methods: empirical methods of comparison, description, interpretation; theoretical methods of formal and dialectical logic; special scientific methods: legal-dogmatic and the method of interpretation of legal norms. Results: there is considerable debate over the responsibilities of AIS owners and users. In many countries, codes of ethics for artificial intelligence are accepted. However, what is required is legal regulation, for instance, considering an AIS as a source of increased danger; in the absence of relevant legal standards, it is reasonable to use a tort liability mechanism based on analogy of the law. Standardization in this area (standardization of databases, software, infrastructure, etc.) is also important - for identifying the AIS developers and operators to be held accountable; violation of standardization requirements may also be a ground for holding them liable under civil law. There appear new dimensions added to the classic legal notions such as the subject of harm, object of harm, and the party that has inflicted the harm, used with regard to both contractual and non-contractual liability. Conclusions: the research has shown that legislation of different countries currently provides soft regulation with regard to liability for harm caused by AIS. However, it is time to gradually move from the development of strategies to practical steps toward the creation of effective mechanisms aimed at minimizing the risks of harm without any persons held liable. Since the process of developing AIS involves many participants with an independent legal status (data supplier, developer, manufacturer, programmer, designer, user), it is rather difficult to establish the liable party in case something goes wrong, and many factors must be taken into account. Regarding infliction of harm to third parties, it seems logical and reasonable to treat an AIS as a source of increased danger; and in the absence of relevant legal regulations, it would be reasonable to use a tort liability mechanism by analogy of the law. The model of contractual liability requires the development of common approaches to defining the product and the consequences of violation of the terms of the contract.

Еще

Список литературы Гражданско-правовая ответственность при разработке и применении систем искусственного интеллекта и робототехники: основные подходы

  • Бегишева И. Р. Уголовно-правовая охрана общественных отношений, связанных с робототехникой: дис. ... д-ра юрид. наук. Казань, 2022. 506 с.
  • Васин Е. «Что делать?» ИИ «Кто виноват?». Ответственность в «цифровых песочницах». URL: https://zakon.ru/blog/2020/9/28/chto_delat_ii_kto_vinovat_voprosy_otvetstvennosti_v_gryaduschih_epr_chast_1_aibolit?ysclid=l9a1mh kt2o615990975.
  • Гражданское право: учебник / под ред. Ю. К. Толстого. М.: Проспект, 2009. Т. 1. 784 с.
  • Гражданское право: учебник; в 2 т. 2-е изд., перераб. и доп. М.: БЕК, 2003. Т. 1. 704 с.
  • Гурко А. В. Искусственный интеллект и авторское право: взгляд в будущее // Интеллектуальная собственность. Авторское право и смежные права. 2017. № 12. С. 7-18.
  • Кархалев Д. Н. Освобождение от договорной ответственности // Актуальные проблемы российского права. 2018. № 4. С. 64-70. DOI: 10.17803/1994-1471.2018.89.4.064-070.
  • Матвеев А. Г., Синельникова В. Н. Объекты интеллектуальной собственности, получающие охрану в XXI веке // Вестник Пермского университета. Юридические науки. 2019. Вып. 44. C. 285-313. DOI: 10.17072/1995-41902019-44-285-313.
  • Мокшанов А. Некачественное программное обеспечение: защита интересов правопри-обретателя. URL: https://zakon.ru/blog/2016/11/9 /nekachestvennoe_programmnoe_obespechenie_za schita_interesov_pravopriobretatelya?ysclid=l961 rolp89975382693.
  • Морхат П. М. Искусственный интеллект: правовой взгляд: монография / РОО «Институт государственно-конфессиональных отношений и права». М.: Буки Веди, 2017. 257 с.
  • Морхат П. М. Правосубъектность искусственного интеллекта в сфере права интеллектуальной собственности: гражданско-правовые проблемы: дис. ... д-ра юрид. наук. М., 2018. 420 с.
  • Понкин И. В., Редькина А. И. Искусственный интеллект с точки зрения права // Вестник Российского университета дружбы народов. Серия: Юридические науки. 2018. Т. 22, № 1. С. 91-109.
  • Реутов С. И. Теоретические и нормативные основы внедрения и развития цифровизации российского общества // Пермский юридический альманах. 2019. С. 38-49.
  • Российское гражданское право: учебник; в 2 т. 2-е изд. М.: Статут, 2011. Т. 2. 1208 с.
  • Сесицкий Е.П. Проблемы правовой охраны результатов, создаваемых системами искусственного интеллекта: автореф. дис. ... канд. юрид. наук. М., 2019. 27 с.
  • Туршук Л.Д. Проблемы разграничения договорной и деликтной ответственности при оказании социальных услуг // Социальное и пенсионное право. 2019. № 2. С. 26-30.
  • Цвайгерт К., Кетц Х. Введение в сравнительное правоведение в сфере частного права. Т. 2. Договор. Неосновательное обогащение. Деликт. М.: Междунар. отношения, 1998. 512 с.
  • Цепов Г. В., Иванов Н. В. К цивилисти-ческой теории смарт-контрактов // Закон. 2022. № 3. С. 149-172.
  • Чеховская С. А. Использование систем искусственного интеллекта для принятия решений: построение системы принципов регулирования // Предпринимательское право. 2021. № 1. С. 24-35.
  • Abbott R. The reasonable computer: Disrupting the paradigm of tort liability // The George Washington Law Review. 2018. Vol. 86, № 1. 45 р.
  • Alheit K. The applicability of the EU product liability directive to software // Comparative and International Law Journal of Southern Africa. 2001. № 34(2). Pp. 188-209.
  • Bertsia C. Legal liability of artificial intelligence driven-systems (AI). 2019. 57 p.
  • Brynjolfsson E. Information assets, technology and organization // Management Science. 1994. № 40(12). Pp. 1645-1662.
  • Kerber W. Governance of data: Exclusive property vs. access // International Review of Intellectual Property and Competition Law. 2016. № 47(7). Pp. 759-762.
  • Calo R. Robotics and the lessons of cy-berlaw // California Law Review. 2015. № 103(3). Pp. 513-563. DOI: 10.2139/ssrn. 2402972.
  • Castelvecchi D. Can we open the black box of AI? // Nature. 2016. № 538(7623). Pp. 20-23.
  • Di Nucci E., & Santoni de Sio F. Drones and Responsibility: Mapping the Feld Routledge. 2016. Pp.1-13.
  • Doran D., Schulz S., & Besold T. R. What does explainable ai really mean? A new conceptualization of perspectives. arXiv preprint ar-Xiv:1710.00794. 2017. Pp. 1-8.
  • Edwards L. & Veale M. Slave to the algorithm? Why a right to explanationn is probably not the remedy you are looking for // Duke Law and Technology Review. 2017. № 16(1). Pp. 1-65. DOI: 10.2139/ ssrn.2972855.
  • Corea F. AI Knowledge Map: how to classify AI technologies. A Sketch of a New AI Technology Landscape / Corea F. An Introduction to Data: Everything You Need to Know About AI, Big Data and Data Science. Cham. Springer, 2019. С. 25-29.
  • Gerstner M. E.: Comment, Liability Issues with Artificial Intelligence Software // Santa Clara Law Review, 1993. Vol. 33, № 1. URL: http://digitalcommons.law.scu.edu/lawreview/vol 33/iss1/7.
  • Ghosh A., Chakraborty, D. & Law A. Artificial intelligence in Internet of things. // CAAI Transactions on Intelligence Technology. 2018. № 3(4). Pp. 208-218.
  • Heyns C. Report of the Special Rapporteur on Extra-Judicial, Summary or Arbitrary Executions. United Nations. 2013. 24 p.
  • Hildebrandt M. Privacy as protection of the incomputable self: From agnostic to agonistic machine learning // Theoretical Inquiries in Law. 2019. № 20 (1). Pp. 83-121.
  • Hojnik J. Technology neutral EU law: digital goods within the traditional goods/services distinction // International Journal of Law and Information Technology. 2017. № 25(1). Pp. 63-84.
  • Kingston J. K. Artificial intelligence and legal liability. In International conference on innovative techniques and applications of artificial intelligence. 2016. Pp.269-279.
  • European Product Liability: An Analysis of the State of the Art in the Era of New Technologies. Ed. P. Machnikowski. Intersentia: Plymouth. 2016. 715 p. DOI: https://doi.org/10.1017/ 9781780685243.
  • Matthias A. The responsibility gap: Ascribing responsibility for the actions of learning automata // Ethics and Information Technology, 2004. № 6(3). Pp. 175-183. DOI: 10.1007/s10676-004-3422-1.
  • Meloni C. State and Individual Responsibility for Targeted Killings by Drones // Drones and Responsibility: Legal, Philosophical and So-cio-Technical Perspectives on Remotely Controlled Weapons. Eds. E. Di Nucci, F. Santoni de Sio. Routledge. 2016. Pp.47-64.
  • Mittelstadt B. D., Alio P., Taddeo M., Wachter S. & Floridi L. The ethics of algorithms: Mapping the debate. Big Data & Society, 2016. № 3(2). Pp. 1-21. DOI: 10.1177/20539517 16679679.
  • Morhat P. M. Legal personality of AI in the field of intellectual property law: civil law problems: Dr. Jurid. Sciences dis. M., 2018. 420 p.
  • Navas, S. Producer Liability for AI-Based Technologies in the European Union // International Law Research. 2020. № 9(1). Pp. 77-84.
  • Noto La Diega, G. Against the Dehuma-nisation of Decision-Making - Algorithmic Decisions at the Crossroads Of Intellectual Property, Data Protection, and Freedom of Information // Journal of Intellectual Property, Information Technology and Electronic Commerce Law. 2018. № 19(1). Pp. 3-34.
  • Oettinger G. Europe's future is digital, Speech at Hannover Messe // Speech. 2015. № 154772. URL: http://europa.eu/rapid/press-release_ SPEECH-15-4772_en.htm.
  • Pagallo U. The laws of robots: Crimes, contracts, and torts. Springer, 2013. 200 p.
  • Pasquale F. The black box society: the secret algorithms that control money and information. Harvard University Press, 2016. 310 p.
  • Perc M., Ozer M., & Hojnik J. Social and juristic challenges of artificial intelligence // Palgrave Communications. 2019. №5(1). Pp. 1-7.
  • Rakhmatulina R. Sh., Sviridova E. A., Sa-vina V. S. Legal Regulation of Artificial Intelligence and Robotization as a New Stage in the Development of the Economy // Humanities and Law Research. 2019. Issue 4. Pp. 209-216.
  • Ramalho A. Patentability of AI-Generated Inventions: Is a Reform of the Patent System Needed? Institute of Intellectual Property, Foundation for Intellectual Property of Japan, 2018. United States Patent and Trademark Office. 2019. 32 p.
  • Wachter S., Mittelstadt B. & Floridi L. Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation // International Data Privacy Law. 2017. № 7(2). Pp. 76-99. DOI: 10.1093/ idpl/ipx005.
  • Wagner G. Robot Liability // Liability for Artificial Intelligence and the Internet of Things/ Eds. S. Lohsse, R. Schulze, D. Staudenmayer. Baden Baden: Nomos Verlag, 2018. Pp. 27-63.
  • Weng Y.-H. Beyond robot ethics: on a legislative consortium for social robotics // Advanced Robotics. 2010. Vol. 24, № 13. Pp. 1919-1926. URL: https://www.researchgate.net/publication/ 46914077_Beyond_Robot_Ethics_On_a_Legisla-tive_Consortium_for_Social_Robotics.
  • WIPO technology trends 2019: artificial intelligence. WIPO, 2019. 158 p.
Еще