Этические принципы взаимодействия с искусственным интеллектом как основа правового регулирования
Автор: Попова Анна Владиславовна
Журнал: Правовое государство: теория и практика @pravgos
Рубрика: Общетеоретические и исторические проблемы формирования правового государства
Статья в выпуске: 3 (61), 2020 года.
Бесплатный доступ
Вопросы правовой регламентации правовых и этических принципов взаимодействия человека, общества, государства в лице государственных органов являются необходимым условием гарантированности конституционных норм, закрепляющих человека, его права и свободы как высшую ценность Российской Федерации. ИИ, беря на себя задачи сквозного и прозрачного государственного и муниципального управления на основе Больших данных и с использованием Искусственного интеллекта, представляет особый элемент в складывающихся общественных отношениях, которые должны, по нашему убеждению, подчиняться робоэтике и этике ИИ, созданной наподобие юридической этики. Именно поэтому этика принятия решения и действий самого ИИ, этика тех программистов, которые создают алгоритмы, по которым действуют и самообучаются эти системы, этика взаимодействия человека и киберфизических и когнитивных систем представляет собой предмет правового регулирования. Цель: анализ современных этических принципов взаимодействия человека и искусственного интеллекта, нейронных сетей и умных роботов, являющихся основой для формирования современного законодательства в данной сфере в США, странах Западной Европы и Восточной Азии. Методы: эмпирические методы сравнения, описания, интерпретации; теоретические методы формальной и диалектической логики. Применялись частно-научные методы: сравнительно-правой, юридико-догматический. Результаты: исследование позволило на основе сравнительно-правового анализа существующих этических кодексов, иных юридических документов по использованию и взаимодействию с ИИ определить сущностные черты этики взаимодействия с человеком и этики создателей программного обеспечения ИИ, профессиональной этики разработчиков систем ИИ и этики принятия решения ИИ.
Искусственный интеллект, робот, робототехника, правовое регулирование, правовое государство, этика, эмпатия, этический кодекс
Короткий адрес: https://sciup.org/142232929
IDR: 142232929 | УДК: 347,
Ethical principles of interaction with artificial intelligence as a basis of legal regulation
The issues of legal regulation of legal and ethical principles of interaction between a person, society, and the state represented by state bodies are a necessary condition for guaranteeing constitutional norms that enshrine a person, his rights and freedoms as the highest value of the Russian Federation. AI, taking on the tasks of end-to-end and transparent state and municipal management based on Big data and using Artificial intelligence, is a special element in the emerging public relations, which we believe should be subject to the robot ethics and AI ethics, created like legal ethics. That is why the ethics of decision-making and actions of the AI itself, the ethics of those programmers who create algorithms that these systems use to operate and self-learn, the ethics of human interaction with cyberphysical and cognitive systems is a subject of legal regulation. Purpose: to analyze the current ethical principles of interaction between human and artificial intelligence, neural networks and smart robots, which are the basis for the formation of modern legislation in this area in the United States, Western Europe and East Asia. Methods: empirical methods of comparison, description, interpretation; theoretical methods of formal and dialectical logic. Specific scientific methods are used: comparative-legal, legal-dogmatic. Results: the study allows us to determine the essential features of human interaction ethics and ethics of AI software creators, professional ethics of AI system developers, and decision-making ethics based on a comparative legal analysis of existing ethical codes and other legal documents on the use and interaction with AI.
Текст научной статьи Этические принципы взаимодействия с искусственным интеллектом как основа правового регулирования
Статья подготовлена по результатам исследований, выполненных за счет бюджетных средств по государственному заданию ФГОБУ ВО «Финансовый университет при Правительстве Российской Федерации»
Особое внимание с недавних пор приковано к проблеме этики, а именно этики принятия решения и действий самого ИИ, этики тех программистов, которые создают алгоритмы, по которым действуют и само-обучаются эти системы, этики взаимодействия человека и киберфизиче-ских и когнитивных систем. Ведь использование роботов, нейронных сетей и ИИ влечет за собой необходимость решения этических проблем, возникающих при использовании автономных беспилотников, случаи манипулирования доступностью информации, сексизма и расизма в алгоритмах распознавания лиц и таргетированной рекламы с использованием ИИ, последствия применения алгоритмов в работе государства [9; 10]. В ноябре 2019 г. в Москве на конференции по искусственному интеллекту «AI Journey» Президент Российской Федерации В.В. Путин отметил важность и необходимость развития ИИ в России, предложив профессиональному сообществу, компаниям подумать над формированием свода этических правил взаимодействия человека с искусственным интеллектом» [4]. С 2016 г. большинство государств с цифровой экономикой включились в технологическую гонку по разработке роботов, киберфизи-ческих и нейронных сетей, ИИ: к 2020 г. были приняты тридцать четыре стратегии по развитию ИИ. Поэтому так важно именно сегодня задать этические рамки развития ИИ, ограничить возможности его неэтичного применения и направить энергию разработчиков и идеи законодателей в русло, обеспечивающее максимальную безопасность и выгоду для общества [1].
При формировании законодательства о роботах-беспилотниках особое внимание уделяется тому, как правильно с точки зрения нравственных ценностей создать программное обеспечение для робота, в том числе и тогда, когда при определенной ситуации при дорожнотранспортном происшествии не удастся избежать причинения вреда человеку. Для сбора информации о предпочтительном решении и, возмож- но, создания универсальной этики беспилотных автомобилей с 2016 г. была запущена онлайн тест-система Moral Machine (http://moralmachine. на десяти языках, где каждый может пройти 13 тестов, заключающихся в модификации знаменитой «проблемы вагонетки» Ф. Фут [7]. Каждому предлагается сделать выбор, кого оставить в живых при невозможности избежать жертв вообще - мужчин или женщин, детей или взрослых, собак или кошек, толстых или стройных, маргинальных или законопослушных, врачей или чиновников и т. д. Система сайта фиксирует возраст, место нахождения, пол, социальный статус, политические, религиозные и иные убеждения и иную информацию [6], разделяя людей условно на три зоны, в зависимости от господствующей религии (западная – христианство, восточная – ислам, конфуцианство и южная – Андские страны и воспринявшие французское влияние). С учетом анализа таких данных приняты нормативные правовые акты: «Изменения в Закон о дорожном движении Германии для целей использования высокоавтоматизированных автомобилей» (ФРГ, 2017) 1; «Руководство по испытаниям автоматизированных транспортных средств» (Австралия, 2017) 2; «Пробный свод правил для испытания автономных транспортных средств на территории Китая» (Китай, 2018) 3; «Резолюция о запрете применения автономных смертельных систем вооружения» (Бельгия, 2018) 4; «Директива об автоматизированном принятии решений для федеральных учреждений» (Канада, 2019). Отказаться от опроса общественного мнения при создании этики искусственного интеллекта решили в 2017 г. в Германии. В Рекомендациях по беспилотным автомобилям 5 запрещено в случае неизбежной аварии «выбирать возможных жертв (из числа людей. – А. П.) по каким-либо личным качествам (возрасту, полу, физическому и ментальному состоянию)», сохраняя при общих равных условиях жизнь че- ловека, против имущества или жизни животного. При этом на один из вопросов, поднятых в Moral Machine, был дан ответ: «…те стороны, которые вовлечены в создание опасности при движении, не должны приносить в жертву невовлеченные стороны»6.
Другой проблемой при создании этических принципов взаимодействия с нейронными сетями и сильным ИИ является возможность их «обучения» морали, создания единого алгоритма действия. Ведь в условно восточных и условно западных странах в отношении к самой морали и способам ее воспитания в социуме существует принципиальное отличие, которое и выразилось в отношении к новым технологическим акторам XXI в. Главной задачей традиционного общества является воспитание «благородного мужа» (цзюнь-цзы) в Китае и Южной Корее, обладающего специальным набором качеств, изложенных в конфуцианстве, или «человека чести» (хадзи о сиру) в Японии, который никогда не совершит ничего, за что он может подвергнуться осуждению со стороны социума, что лежит в основе синтоизма. Иначе говоря, жители азиатских стран акцентированы не на сам поступок, причинно-следственную связь, смягчающие обстоятельства и др., а на результаты действия человека, даже самые косвенные, на появление которых тот не в силах повлиять, но которые могут отразиться на благополучии всех.
Исходя из принципов синтоизма, роботы, киберфизические системы и ИИ признаются имеющими душу наравне с человеком и именуются в соответствии с ч. 1 ст. 2 Закона № 9014 от 28 марта 2008 г. (в ред. Закона № 13744 от 6 января 2016 г.) «О содействии развитию и распространению умных роботов»7 (далее – Закон об умных роботах) «умными роботами», т. е. «механическими устройствами, способными воспринимать окружающую среду, распознавать обстоятельства, в которых они функционируют, и целенаправленно передвигаться самостоятельно». В силу данного факта умные роботы признаются акторами социума, действующими наравне с людьми и выполняющими единую с ними цель, обозначенную как содействие улучшению качества жизни граждан и развитию экономики страны». За ними в ст. 30 Раздела V Закона об умных роботах даже закрепляется отдельная территория их «проживания, развития и распространения» – Роботлэнд. Однако даже при таком лояльном отно- шении к ИИ как возможному актору, действующему наравне с человеком, и в целом симпатизируя роботам, в возложении на них ответственности как обязательного элемента свободного поведения создатели закона отказывают. В «Этических руководящих принципах для Японского общества искусственного интеллекта (JSAI)» (2017) делается принципиальное различие между слабым и сильным ИИ. Ответственность за роботов возлагается на программистов, создателей роботов, членов Научного общества искусственного интеллекта (JSAI), но Правило 9 гласит, что «АI (имеется в виду сильный ИИ. – А. П.) должен соблюдать этические правила также как и члены JSAI, чтобы стать членом или квазичленом общества»8.
По-иному воспринимаются роботы, нейронные системы, ИИ в западной культуре. В отличие от азиатских стран, внедрению ИИ и других цифровых технологий в странах западноевропейской культуры препятствует в первую очередь низкий уровень доверия граждан к алгоритмам и новым технологиям, в принципе, а также отсутствие понятных этических рамок в применении ИИ. Фантастика А. Азимова, С. Лема, высказываемые опасения И. Маска, Б. Гейтса [8] вызывают у общества страх перед возможным превосходством интеллектуальных роботов [6], что и находит свое подтверждение в создаваемых в странах ЕС и США программах развития ИИ и этических нормах. Возможно, что столь разительное отличие в восприятии ИИ в восточной и западной культурах кроется и в господствующей доктрине прав человека – приоритет индивидуальных или коллективных прав. До пандемии 2020 года ИИ, исходя из доктрин либерализма и гуманизма, не мог быть признан актором наравне с человеком, что и было заявлено в национальных стратегиях ИИ и этических правилах. Как отмечал Н. Бостром, «рационалистическая суть ИИ несовместима с гуманностью и человечностью. Ведь основное свойство разума, проторазума, иного разума и т. д. – это, прежде всего, приспосабливать к себе окружающую среду. Поскольку у разума как такового нет нравственности, он может «пойти» на все, что считает целесообразным» [6, c. 62].
К апрелю 2020 г. практически во всех странах были приняты юридические акты и различного рода рекомендации, посвященные этике ИИ: «Азиломарские принципы ИИ» (США, 2017) 9; Рекомендации по беспи- лотным автомобилям (Германия, 2017) 10, Монреальская декларация об ответственном развитии искусственного интеллекта 11 (Канада, 2017); «Этические руководящие принципы для Японского общества искусственного интеллекта (JSAI)» [18] (Япония, 2017); Руководство по этике для надежного ИИ Специальной группы экспертов высокого уровня Совета Европы (CE, 2018) 12; Модельная конвенция робототехники и искусственного интеллекта (Россия, 2018) 13; Римский призыв к этике 14 (Ватикан, 2020); Этические принципы для искусственного интеллекта (США, 2020) 15. Анализируя принятые юридические акты, можно выделить следующие ключевые этические принципы: безопасность, надежность, прозрачность, инклюзивность, защита прав человека, беспристрастность, справедливость, контролируемость, все системы ИИ, роботы, конфиденциальность, ответственность.
Таким образом, когда мы говорим об этических принципах, следует иметь в виду общие системы жизненных программ, основанные на определенных источниках и системах координат, преимущественно в дихотомии добро – зло, а если о моральных, то систему конкретных принципов отдельного человека или общества на конкретном временном этапе его развития [2]. Поэтому для программирования роботов, создания их программного обеспечения следует говорить исключительно об этических принципах взаимодействия человека и таких киберфизических систем. При этом необходимо отметить, что сфера применения роботов оказывает значительное влияние на систему таких этических принципов. Полагаем, что следует различать дата-этику (умный город, умный дом, BigData, системы распознавания лиц и др.); этику социальных роботов (боты-адвокаты, роботы-сиделки, роботы-учителя, роботы-медицинский персонал и др.); этику военных роботов; этику ИИ в сфере охраны правопорядка и правосудия и т. д.
В случае, когда мы имеем дело с нейронными сетями, сильным ИИ и предполагаем появление в недалеком будущем сверхсильного ИИ, необходимо создание по меньшей мере трех видов этики [18]:
-
1) этика принятия решения ИИ – первые «точки входа» создает человек, закладывая определенные моральные принципы, но в процессе самообучения система ИИ ведет себя автономно, улучшая свои параметры и принимая решения, влияющие на жизнь человека; поэтому необходимы гарантии моральности ИИ, что вызывает наибольшие трудности при верификации морального выбора;
-
2) этика взаимодействия с человеком и этика создателей программного обеспечения ИИ, цель которой проанализировать и предотвратить этические коллизии, возникающие в процессе применения ИИ, а именно: нарушение приватности, возможная дискриминация, социальное расслоение, проблемы трудоустройства и т. д.;
-
3) профессиональная этика разработчиков систем ИИ, включающая в себя такие принципы, как вклад в развитие человечества (защищать основные права человека, уважать культурное разнообразие, предотвращать угрозу безопасности человека); соблюдение законов и нормативных актов; уважение частной жизни других лиц; справедливость (беспристрастность, запрет любой дискриминации); безопасность (создание мер безопасности для самого ИИ, безопасность, управляемость и необходимая конфиденциальность при обеспечении того, чтобы пользователям ИИ предоставлялись соответствующие и достаточные средства, информация); добросовестность, основанная на доверии общества к технологиям ИИ; подотчетность и социальная ответственность; коммуникабельность и саморазвитие.
Список литературы Этические принципы взаимодействия с искусственным интеллектом как основа правового регулирования
- Готовцев П.М., Карпов В.Э., Нестик Т.А., Потапова Е.Г. Зачем искусственному интеллекту этика? [Электронный ресурс]. URL: http://ethics. cdto.center/3_1 (дата обращения: 03.04.2020).
- Зубец О.Н. Моральная философия и этика: взгляд через различения начала и причины // Гуманитарные ведомости ТПГУ им. Л.Н. Толстого. 2019. № 2 (30). С. 148-158.
- DOI: 10.22405/2304-4772-2019-1-2-148-158 EDN: WDICYF
- Максимов Л.В. Этика и мораль: соотношение понятий // Этическая мысль. 2003. С. 14-22.
- EDN: LHTDEZ
- Путин В.В. РФ способна стать одним из глобальных лидеров в сфере искусственного интеллекта [Электронный ресурс]. URL: https://tass.ru/ekonomika/7096728 (дата обращения: 28.03.2020).
- Стерледев Р.К., Стерледева Т.Д. Искусственный интеллект в аспекте ноосферы: почти фантастика? // Вестник Пермского национального исследовательского политехнического университета (ПНИПУ). Культура. История. Философия. Право. 2017. № 2. С. 61-65. 10.15593/perm. kipf/2017.2.08 (дата обращения: 28.03.2020).
- DOI: 10.15593/perm.kipf/2017.2.08(
- Шестаков И. Моральный код: почему общество не может научить компьютер морали. 20 февраля 2019 г. [Электронный ресурс]. URL: https://iz.ru/ 844965/ignat-shestakov/moralnyi-kod-pochemu-obshchestvo-ne-mozhet-nauchit-kompiuter-morali (дата обращения 03.04.2020).
- Foot Ph. The Problem of Abortion and the Doctrine of the Double Effect in Virtues and Vices. Oxford: Basil Blackwell, 1978.
- Holley Р., Gates В.Оn dangers of artificial intelligence: "I don't understand why some people are not concerned" (2015) [Electronic Resources]. URL: https://www.washing tonpost.com/news/the-switch/wp/ (дата обращения: 02.04.2020).
- Musk E. We need to Regulate AI before 'it's too Late' [Electronic Resources]. URL: http://thehill.com/policy/technology/342345-elon-musk-we-need-to-regulate-ai-before-its-too-late (дата обращения: 02.04.2020).
- Simonite T. AI experts want to end "black box" algorithms in government [Электронный ресурс] // Wired Business. URL: https://www.wired.com/ story/ai-experts-want-to-end-black-box-algorithms-in-government (дата обращения: 13.03.2020).