Интеллектуальные системы: возможность возложения ответственности

Бесплатный доступ

В статье рассматривается возможность возложения ответственности, в том числе уголовной, на интеллектуальные системы. Делается вывод о том, что развитие робототехники как таковой, но и особенно адаптация права, введение новых правовых понятий окажут влияние на основные социальные понятия. Развитие робототехники окажет влияние не только на правовое регулирование халатности, но и изменит наше понимание причинности, субъекта преступления, сфер ответственности. Эти последствия в определенной степени напоминают последствия, которые каждая новая технология оказывала на правовые режимы в течение последних десятилетий. Это бросит вызов тому, что общество думает о небрежном поведении (то есть о принципе доверия), ответственности за принимаемые решения, уголовной ответственности субъекта, отличного от человека.

Еще

Интеллектуальные системы, электронное лицо, халатность, ответственность, правосубъектность

Короткий адрес: https://sciup.org/147231559

IDR: 147231559   |   DOI: 10.14529/law210115

Текст научной статьи Интеллектуальные системы: возможность возложения ответственности

Интеллектуальные системы (ИС) будут взаимодействовать с нами все чаще и чаще в ближайшие годы, будь то в торговле, производстве товаров, домашнем хозяйстве или военных действиях. Они облегчают повседневную жизнь не только в технологическом смысле, но и в конкретных повседневных действиях и решениях людей. По крайней мере, возможно, что для ряда определенных задач решение машины может быть даже более быстрым, более рациональным, более информированным, чем решение человека [1].

Для выполнения этих задач ИС должны становиться все более и более автономными, приближаясь к образцам человеческого мышления [4]. Невозможно заранее дать подробные указания по всем соответствующим ситуациям. Поэтому нужно создавать ИС, способные учиться, приспосабливаться к определенным условиям и быть обученные реагировать наилучшим образом, подходящим для пользователя способом.

Однако при программировании невозможно предсказать, как ИС будет действовать в конкретной ситуации после ее обучения, а также становится почти невозможным восстановить причину того, почему машина отреагировала определенным образом. Новые технологические разработки часто бросают вызов обществу, поэтому для борьбы с опасностями, которые могут возникать в процессе отношений с участием ИС, необходимо раз- рабатывать соответствующие нормативные акты [3].

В случае с ИС традиционная направленность правовой системы – особенно уголовного права – по отношению к индивидуальной ответственности ставится под сомнение [4]. Соответственно необходимо рассмотреть вопрос особенностей введения уголовной ответственности за причинение вреда с участием ИС и вопрос о том, какую роль введение электронной личности могло бы сыграть для решения этих проблем.

Наиболее важными случаями уголовной ответственности за использование ИС будут ситуации, в рамках которых ИС причинит вред здоровью индивида либо даже вызовет его гибель. Преступником в таком случае можно считать нескольких человек: производителя, программиста, продавца или пользователя робота. Чаще всего нарушение прав другого человека может повлечь за собой уголовную ответственность по неосторожности. Такого рода ответственность может быть связана с любым этапом производственного процесса и использования, включая исследования и разработки.

Также может наличествовать преступная небрежность. Первое условие возникновения небрежности состоит в том, чтобы лицо, ответственность которого обсуждается, действовало без «разумной осторожности» [3]. Стандарт возникновения ответственности обычно определяется ожидаемой формой поведения человека в данной ситуации. В качестве индикаторов могут выступать не правовые стандарты, такие как стандарты ISO и DIN [4]. Однако сегодня отсутствуют специализированные стандарты, благодаря которым можно определить уровень, степень и момент наступления риска в рассматриваемых отношениях. Перед институтами стандартизации стоит задача не только определить, каким образом возможно избежать несоразмерных рисков, но и каким образом выносить решение о том, что риски являются таковыми. В таких случаях дополнительно применяется общеизвестное правило рациональности: как бы поступил рациональный человек, чтобы избежать ущерба в этой ситуации? Тем не менее подобный ход мышления и вытекающая из него неопределенная оценка маловероятно эффективны в сложных технологических областях, таких как отношения с участием ИС [7].

Не правовые нормы являются лишь индикаторами того, соответствовали ли действия лица требованиям норм права к отдельным видам деятельности, например, оказанию медицинской помощи. Они, как правило, разрабатываются применительно к гражданско-правовой ответственности, а не ориентированы на применение в рамках уголовного права. Уголовное право - это не просто отрасль права, императивно регулирующая общественные отношения в целях охраны имущественных и личных неимущественных прав и свобод человека и гражданина, общественного порядка и общественной безопасности, а также предупреждения преступлений. Для уголовного права всегда необходимо дополнительно учитывать общесоциальную общественную мораль [2]. Если существующие нормы права не противоречат социальным ожиданиям и нормам рациональности, то в отдельных случаях при наличии консенсуса в научном сообществе и в корпусе правотворцев имеет смысл установить, в том числе и уголовную ответственность за халатность при использовании ИС.

Еще одним условием преступной халатности является предвидения ущерба [4]. Например, использование ИС в военных целях и использование наземных беспилотных транспортных средств в повседневном дорожном движении являются подходящими примерами: минимизация участия или даже устране- ние человека из таких ситуаций видится практически неизбежной причиной наступления неблагоприятных последствий, которые сложно предвидеть, а значит, права людей нарушаются. С другой стороны, предвидимость связана только с общей возможностью причинения вреда; конкретные же условия и ситуации становятся все более непредсказуемыми [3].

Таким образом, правоотношения с участием ИС позволяют говорить, насколько специфична предвидимость: должна ли она быть направлена на конкретные обстоятельства, причинные связи, вред или достаточно предвидеть возможность нарушения прав человека как такового?

Традиционное понимание института вины в целом и небрежности как вида одной из ее форм уже достигло своих пределов, если она применяется только к одной из потенциально участвующих в правоотношении сторон. Для робототехники как развивающейся технологии еще нет устоявшейся нормативной базы. Но целесообразность установления ответственности для одной или нескольких вовлеченных сторон может быть поставлена под сомнение еще больше тем фактом, что вскоре ИС могут быть оснащены способностью адаптивного поведения и (само) обучения [2]. Эти особенности неизбежно влекут за собой определенную степень непредсказуемости в поведении ИС: из-за накапливания опыта, полученного самостоятельно, поведение ИС в будущем больше не сможет подвергнуться полноценному планированию. В связи с этим разумно предположить, что в таком случае целесообразно возложить больший перечень обязанностей на пользователя ИС, чем в случаях с операторами и пользователями иных систем.

Если ИС с адаптивными возможностями обучения позволяют свободно взаимодействовать с физическими лицами в недостаточно урегулированном общественном отношении, они могут реагировать на новые входные данные непредсказуемым образом. Если впоследствии ИС причинит ущерб по этой причине, то в данном случае необоснованно связывать такие последствия с неправомерным поведением программиста, производителя или даже пользователя [2].

В тех случаях, когда ИС совершает ошибку и тем самым наносит ущерб третьим лицам, можно попытаться определить ответст- венные за данный ущерб стороны, которыми могут считаться следующие акторы:

  • -    одна из сторон считается ответственной в полной мере, например, пользователь в ходе использования ИС [5];

  • -    ответственность несет только лицо, которое доказуемо допустило ошибку в ходе использования ИС;

  • -    часть ответственности за причинение ущерба переносится на само государство (случаи правоотношений, в которых принимают участие публичные ИС).

Вышеупомянутые варианты определения юридической ответственности основаны на том, кто предположительно получает прибыль от использования ИС, кто должен нести материальную ответственность за свою ошибку, которая считается допускаемой в рамках предполагаемого контроля, даже если ИС функционирует превентивно изначальным решениям ответственных физических лиц.

Риски в контексте использования ИС включают не только причинение ущерба или ошибки: существуют также риски нежелательных побочных эффектов. Конечно, каждая новая технология сопровождается дискуссиями о возможности возникновения непредвиденных лакун правового регулирования. Аналогичная ситуация наблюдается в случае обсуждения использования ИС, что неудивительно: данные системы принимают участие в общественных отношениях, отличающихся особой значимостью для общества: уход за пожилыми людьми или детьми, дача психологических советов или ведение боевых действий. Все указанные действия ИС выходят за рамки привычного восприятия «социального» человеком [7]. Вероятность наступления непредвиденных неблагоприятных последствий, в том числе в вышеперечисленных случаях, не обязательно означает, что развитие ИС должно быть ограничено или даже запрещено. Однако при обсуждении особенностей использования ИС необходимо также осознавать возможность наступления ответственности за потенциальные неблагоприятные последствия их использования [8].

Особого рассмотрения заслуживает делегирование ответственности за действия ИС. Разрабатывая автономные ИС, способные к обучению, специалисты создают искусственного участника общественных отношений, который берет на себя ответственность даже на стадии принятия решений. Такое положе- ние дел можно охарактеризовать как реакцию на чрезмерную сложность современного общества, в котором каждый день приходится не только принимать множество решений, но и знать, что многие из них потенциально могут навредить другим. Соответственно ИС постепенно переходит от решения обычных бытовых задач к задачам глобального масштаба, в рамках которых принимаются решения о жизни и смерти. Передача части полномочий машинам, безусловно, необходима, однако все это вызывает новые вопросы: кто отвечает за подобные действия такой ИС? Может ли ИС действовать и реагировать так, как это необходимо для конструкции юридической ответственности?

Представляется необходимым адаптация правового регулирования халатности в уголовном праве следующим образом: правовые нормы, регулирующие данный вид вины, должны быть проанализированы с акцентом на распределение ответственности между вовлеченными сторонами и делегирование ответственности такой ИС. Поэтому важным аспектом в рассматриваемом вопросе, который становится все более значимым в обществе, где принято производить учет рисков, является так называемый «принцип опоры» [5]. В обществе, в котором вряд ли кто-то сам принимает решение об опасном развитии отношений с участием ИС, важно выработать принципы распределения ответственности в случаях сотрудничества или даже в случаях незапланированного взаимодействия (например, в дорожном движении) с такими системами. В соответствии с принципом доверия, как правило, каждый индивид может полагаться на других лиц, с которыми он взаимодействует, чтобы действовать правомерно, если нет оснований утверждать обратное.

Для различных сторон, участвующих в производстве и обучении ИС, это означало бы, что в уголовном праве ответственность несет только та сторона, которая доказуемо допустила ошибку, то есть противоречила принципам и ценностям рассматриваемого уголовного законодательства или следила за показателями для других сторон, допустивших ошибки и ошибочно полагавшихся на законность своих действий.

Этот подход, однако, не учитывал бы делегирование ответственности на ИС [4]. В полной мере сравнить такую ситуацию с разделением труда между людьми по аналогии можно только с оговорками. То, что пользователь может полагаться на законность действий программиста и других лиц, не означает, что он может полностью освободить себя от ответственности, утверждая, что ИС, принявшая решение, должна была работать должным образом; не только потому, что он, возможно, был тем, кто обучал ИС, но и потому, что он несет ответственность за принятие решения в первую очередь. Это нельзя в полной мере сравнить с решением делегировать определенные задачи другому человеку. Мало того, что (по крайней мере, на данный момент из-за отсутствия опыта работы с ИС) легче оценить навыки человека, которому делегируется задача, адресатом делегирования в данном случае является еще одна потенциально реагирующая сущность, которую можно сделать ответственной за ошибки. Таким образом, если говорить об уголовной ответственности - в том числе о небрежности - как о создании сфер ответственности, традиционное делегирование создает новую сферу, доходящую до делегированной задачи (также в зависимости от передаваемой информации и полномочий принятия решений), в то время как в случае передачи решения на ИС подобная новая сфера не создается. Особенно если учесть возможность того, что ИС действуют не сами по себе, а являются подключенными через интернет, это действительно приводит к почти неразрешимым проблемам поиска кого-то, кто может считаться (преступно) ответственным за конкретные действия или результаты. Это оставило бы жертву без какого-либо ответа на нарушение ее прав/интересов.

Одним из возможных решений этого расщепления ответственности может быть расширение ответственности - даже уголовной - пользователя, таким образом, он останется ответственным за каждое действие, которое он делегировал машине (за исключением того, что это действие будет основано на ошибке конструкции). Но это, вероятно, вряд ли может стать социально приемлемым: например, как в случае, если бы водитель брал бы на себя уголовную ответственность за неверное решение автомобиля только потому, что он решил использовать его. Таким образом, необходимо будет разработать руководящие принципы для того, когда использование наземных беспилотных транспортных средств является социально приемлемым даже с учетом такого расщепления ответствен- ности, и если это так, то нельзя предполагать наличие небрежности при решении об использовании таких систем. Это, конечно, возможно только в том случае, если отсутствует неправильное использование ИС.

Еще одним решением проблемы диффузии ответственности является введение нового правового статуса - «электронная личность» [6]. Ряд правоведов также описывали такого актора, как «электронное лицо». Юридическое лицо, например, компания или корпорация, в конечном счете означает объединение возможностей, материальных и финансовых обязанностей, оставаясь фикцией. Во многих отношениях юридические лица обладают таким же правовым статусом, что и физические лица, в соответствии с законом, в то время как в других отношениях они не имеют такого же правового статуса.

Кроме того, категория юридического лица охватывает не все общности индивидов: закон определяет, какой группе физических лиц может быть предписан такой правовой статус. Эта концепция была довольно успешной для осуществления предпринимательской деятельности с корпорациями - привлечение к ответственности по крайней мере юридического лица, а также обеспечение того, чтобы ни одно физическое лицо (например, владелец) не несло ответственности за весь вред, причиненный корпорацией, позволяла обеспечить баланс интересов сторон и стабильность гражданского и предпринимательского оборота. В некоторых странах установлена даже уголовная ответственность корпораций [2].

Подобный подход применим, по крайней мере, для некоторых ИС. Теоретически ИС могут развивать определенную искусственную личность, определенную сферу действия и определенную сферу принятия решений [7]. Таким образом, можно создать правовой статус, который был бы лишь «осязаемым символом» сотрудничества всех сторон. Юриспруденция могла бы установить, что некоторые автономные машины имеют статус «электронного лица» с конкретными правами и обязанностями. Применение такого правового статуса было бы возможно только в контексте определенных общественных отношений и включало бы, например, беспилотные транспортные средства, обладающие определенной степенью юридической автономии. Это было бы уместно для всех машин с искусственным интеллектом, которые автоматически принимают решения или каким-то образом взаимодействуют с другими людьми, например, путем заключения договоров или причинения ущерба законным интересам лица. Подобный аналог юридического лица для ИС также считался бы объединением всех юридических обязанностей различных сторон (пользователей, продавцов, производителей и т.д.).

Указанная правовая конструкция будет иметь последствия в гражданском праве: судебные решения могут быть вынесены непосредственно в отношении электронных лиц (и будут покрыты их активами, оплаченными сторонами, участвующими в их создании и обучении). Однако представляется правдоподобным, когда конкретная неисправность машины может быть отнесена к грубому небрежному или умышленному проступку, ответственность слагается на одну из сторон, участвующих в создании или использовании машины.

Введение этой правовой конструкции не основано на том, что ИС характеризуются как искусственно созданный актор, близкий по правовому положению к физическим лицам, и не имеет такой категоризации, как следствие. Такая концепция должна была бы основываться на онтологических соображениях, аргументируя сходство с человеком (принимая в качестве критериев характеристики, такие как мобильность, чувства, способность к обучению, интенциональность, самосознание, пожелания, вменяемость [3] и др.). Хотя, с другой стороны, создание новых юридических лиц с конкретными юридическими обязанностями не представляет большой проблемы. Не только развитие робототехники как таковой, но и особенно адаптация права, введение новых правовых понятий окажут влияние на развитие правовой культуры и правосознания личности.

Таким образом, развитие ИС окажет влияние не только на халатность как вид одной из форм института вины, но и изменит наше понимание причинности, субъекта преступления, сфер ответственности. Эти последствия в определенной степени напоминают последствия, которые каждая новая технология оказывала на правовые режимы в течение последних десятилетий. Это бросит вызов тому, что общество думает о небрежном поведении (то есть о принципе доверия), ответственности за принимаемые решения, уголовной ответственности субъекта, отличного от человека.

Список литературы Интеллектуальные системы: возможность возложения ответственности

  • Kudlich H., Heintschel-Heinegg B. (Ed.), Beck-OK StGB, §15 para 35 et seqq. 2013.
  • For specific regulation issues of robotics, see RoboLaw Group (2014) Guidelines on Regulating Robotics: http://www.robolaw.eu/.
  • Beck S., Zabel B., Person, Persönlichkeit, Autonomie -JuristischePerspektiven, in: O. Friedrich, M. Zichy (Eds.), Persönlichkeit -Neurowissenschaftliche und neurophilosophischeFragestellungen, Mentis, 2014, pp. 49-82.
  • Compare Adam J. Sulkowski, ‘Blockchain, Business Supply Chains, Sustainability, and Law: The Future of Governance, Legal Frameworks, and Lawyers?' (2019) 43 Delaware Journal of Corporate Law 2, 303-345.
  • Adrian Zenz, ‘Thoroughly Reforming Them Towards a Healthy Heart Attitude: China's Political Re-education Campaign in Xinjiang' (2019) 38 Central Asian Survey 1, 102.
  • Jack M Balkin, Free Speech in the Algorithmic Society: Big Data, Private Governance, and New School Speech Regulation', Yale Law School, Public Law Research Paper No. 615 (2018).
  • Ugo Pagallo, The Laws of Robots: Crimes, Contracts, and Torts (Springer, 2013).
  • Günther J. P., Münch F., Beck S., Löffler S., Leroux Ch., Labruto R. Issues of privacy and electronic personhood in robotics, in: Proceedings of 2012 IEEE International Symposium on Robot and Human Interactive Communication, 2017, pp. 815-820.
Еще
Статья научная