Оценка необходимости принятия правовой нейтральности интеллектуальных систем

Бесплатный доступ

В статье рассматривается оценка необходимости принятия правовой нейтральности интеллектуальных систем (ИС). Автор приходит к выводу о том, что ИС сегодня успешно применяются в различных сферах, однако, чтобы исключить множественные риски, связанные с их применением, необходимо принять соответствующие законы и разработать правовую политику в отношении регулирования отношений с участием ИС. В комплекс принципов, регулирующих указанные выше отношения, следует включить принцип правовой нейтральности ИС, чтобы гарантировать, что не будут воздвигнуты ненужные барьеры, мешающие реализовать преимущества ИС.

Интеллектуальные системы, информационные технологии, правовое регулирование, правовая нейтральность

Короткий адрес: https://sciup.org/147231568

IDR: 147231568   |   DOI: 10.14529/law210111

Текст научной статьи Оценка необходимости принятия правовой нейтральности интеллектуальных систем

Законодательство различает, часто не преднамеренно, поведение людей и интеллектуальных систем (ИС), и это приводит к непредвиденным последствиям. Источники права, регулирующие правоотношения в сфере интеллектуальной собственности, могут тормозить развитие инноваций в мире, где ИС выступают в качестве автора и изобретателя. Кроме того, в уголовном праве отсутствуют надлежащие меры реагирования на причинение ИС вреда человеку [6].

Есть мнение, что применение правовой нейтральности ИС (то есть отсутствия намеренного умаления в правовом положении ИС) поможет действующему законодательству лучше достичь его основные цели – будь то поощрение конкуренции, повышение безопасности, стимулирование инноваций или искоренение противоправного поведения. Правовая нейтральность ИС может считаться недооцененным принципом права в связи с тем, что при наличии существующих достижений интеллектуальными системами последующих результатов за гранью возможного для человека само законодательство не обязательно должно намеренно ставить ИС в невыгодное положение, чтобы не ограничивать конкуренцию [7]. Стоит также отметить, что принцип правовой нейтральности ИС может быть последовательно применен к различным отраслям права, даже если он не требует уравнения в правовом положении физических лиц и ИС.

Значимость принципа правовой ней- тральности ИС в мире сегодня повышается, правовое положение ИС не превосходит по объему варианты возможного поведения людей. Законодательство, которое намеренно закрепляет возможность фрагментарного, неполного правового положения и роли ИС в общественных отношениях, опосредованных правом, стоит оценивать как менее полезное и эффективное – как для целей гражданского и предпринимательского оборота, так и в целях безопасности общественного порядка. Ситуацией, противоположной этому, является законодательство, при котором физические лица и ИС находятся в относительно близкой конкуренции. В конечном счете, если ИС станет актором не просто более эффективным, а существенно более эффективным, чем человек, то в таком случае дифференцированный правовой режим только задержит в определенных случаях целесообразную или даже вынужденную автоматизацию [6].

Правовая нейтральность ИС вполне может сыграть роль катализатора, ускоряющего внедрение процесса дальнейшей автоматизации, и повысить ее эффективность.

Принцип правовой нейтральности ИС поощряет автоматизацию, и ИС в конечном итоге при благоприятном развитии таких процессов будут более эффективны в применяемых сферах жизнедеятельности. Нормативные правовые акты, намеренно ограничивающие правовое положение ИС, не остановят процесс автоматизации, если не будут приняты акты, содержащие нормы, полностью запрещающие использование ИС для определенных видов деятельности, будь то запрет на его использование в любой коммерческой диагностике или лечении заболеваний. Если бы был введен запрет на использование таких систем в конкретных видах деятельности, это могло бы обеспечить верховенство принятия решений человеком в медицине и предотвратить замену части трудовых обязанностей, возлагаемых на медицинских работников, и их роли, однако повсеместное запрещение деятельности ИС было бы нежелательным для прогнозируемого уровня оказания услуг и выполнения работ в этой и иных сферах.

Важным аспектом дальнейшего развития ИС может стать их применение в различных сферах жизнедеятельности, причем такое применение может приносить пользу только небольшому числу людей. Предотвратить бесконтрольное применение ИС можно не путем запрета автоматизации, а путем создания соответствующей правовой базы [4].

Отождествление правового положения физических лиц и ИС видится нежелательным. Принцип правового нейтралитета ИС не требует назначения меры государственного принуждения в виде наказания в уголовноправовом смысле для ИС, наступления ответственности ИС за несчастные случаи и пр. Поэтому можно было бы возразить на то, что принятие принципа правовой нейтральности ИС было бы непрактичным [3]. Так, в частности, в 2019 году экспертная группа высокого уровня Европейской Комиссии по ИС выдвинула руководящие принципы, которым должны соответствовать системы ИС, в том числе прозрачность, конфиденциальность, человеческий контроль и недискриминация. В отдельности каждый из принципов представляет собой неоспоримую норму, однако на практике эти требования могут противоречить друг другу. Например, прозрачность может идти в ущерб конфиденциальности. Понимание того, как функционируют коннекционистские ИС, может потребовать доступа к его обучающим входам, которые часто включают и защищаемые законом персональные данные. Предоставление их для проверки может нарушить право на неприкосновенность частной жизни, особенно ярко данное нарушение может проявляться в здравоохранении.

Прозрачность также может требовать раскрытия коммерчески ценной конфиденци- альной информации, в том числе составляющей коммерческую тайну. Доступ к коду ИС может быть необходим для понимания его функций, но если конкуренты могут получить доступ к этому коду, они могут создавать аналогичные продукты, не нарушая защиту интеллектуальной собственности.

Точно так же человеческая деятельность может вступать в конфликт с требованием к недискриминации. Дискриминация по алгоритмам, или алгоритмическая предвзятость, является давней проблемой, которая также стала более заметной в 2016 году, в связи с применением в судебной системе США системы Управления профилированием альтернативных санкций (COMPAS). Данная система помогала судьям принимать решения об освобождении лиц, привлеченных к ответственности, под залог путем анализа оценок рисков подсудимых. Алгоритм чаще обозначал подсудимых африканского происхождения, которые впоследствии не совершали рецидивов, как лиц с большей степенью риска, а подсудимых европейского происхождения, которые совершали рецидивы, как лиц с меньшей степенью риска.

Предвзятые алгоритмы не являются результатом того, что человек намеренно проектирует ИС «с расистским уклоном», но они могут возникнуть, если, например, коннек-ционистский ИС учится на основе предвзятых данных обучения. Если судьи исторически выносили обвиняемым дискриминационные приговоры, то ИС может сделать это в будущем [5].

Бывает очень трудно обнаружить, а тем более изменить человеческие предубеждения. Например, в 2019 году во Франции были опубликованы данные, связанные с судебными решениями, преступлением, наказуемым лишением свободы на срок до пяти лет. Анализ данных судебных дел показал, что решения, вынесенные различными судьями, даже по аналогичным делам, имеют существенные различия. И это еще раз свидетельствует о решающей роли человеческого фактора в принятии того или иного решения.

Интересно, что принятие решений человеком может быть не только недостаточно прозрачным, но и менее объяснимым, чем у ИС. При этом судья может, в отличие от ИС, пояснить свое решение, однако объективности самого решения это не гарантирует. Судья, который сознательно предвзято относит- ся к защищаемой группе, вряд ли признает, что такая предвзятость имеет место. Вместо этого он будет рационализировать объяснение приговора, опираясь на факты преступления, личные обстоятельства подсудимого и другие, важные, по его мнению, факторы. И если судья имеет бессознательную предвзятость, то он даже не осознает искажения правовой перспективы. ИС при этом будет руководствоваться заранее прописанными для нее внутренними правилами и алгоритмами [7].

Соответственно один из способов управлять человеческими предубеждениями - уступить некоторую свободу действий ИС, которые могут быть явно запрограммированы на то, чтобы никогда не учитывать расу, это может быть лучшим решением, шанс для общества избежать дискриминации в расово стратифицированном мире.

Хотя прозрачность, конфиденциальность, свобода действий и недискриминация являются важными принципами, они выступают концептуальными ориентирами, а не абсолютными предписаниями. Разумная политика требует, чтобы лицо, принимающее решения, было способно на сбалансированное использование этих концепций в каждом конкретном случае. Различные юрисдикции также имеют различные социо-культурные и ценностные установки. Например, некоторые страны более обеспокоены конфиденциальностью пользователей, чем другие, в то время как третьи, наоборот, расширяют возможности пользователей на доступ к тому или иному объему информации.

Часто упоминаемый принцип регулирования ИС заключается в поддержании верховенства человеческой воли, что может противоречить принципу правовой нейтральности ИС. Следует ли исключить автоматизацию из некоторых областей человеческой деятельности, таких как творчество, даже когда она более эффективна?

Несомненно, ИС значительно превосходят человека в области создания музыкальных произведений, графических изображений, также общеизвестно, что при исполнении шахматных партий ИС значительно превосходит человека. Однако это не означает, что человека и ИС в данных областях нужно сравнивать между собой. Если в первом случае имеет место процесс творческий, основанный на самосовершенствовании человеческого интеллекта, то во втором - это резуль- тат технического прогресса [1]. И человек, и ИС развиваются по своему собственному пути. Каждый из них может использовать плоды творчества друг друга, не вступая между собой в некие соревнования, результат которых не будет иметь смысла. Конкуренция будет возможной и будет иметь смысл только между субъектами, результаты деятельности которых могут быть признаны относительно однозначными.

Нельзя не признать, что автоматизация проникает практически во все сферы человеческой жизни. Сегодня существуют высокоавтоматизированные системы вооружения, такие как израильская противоракетная система «Железный купол», которая не может эффективно функционировать без автоматизации, поскольку она обнаруживает приближающиеся ракеты и развертывает контрмеры быстрее, чем это может сделать солдат-человек. Назначение данной системы - строго оборонительное.

Имеются аналогичные примеры, касающиеся и судебной системы. В конце 2019 года правительство Эстонии инициировало программу создания «робота-судьи» для рассмотрения так называемых мелких исков, соответственно в данном случае ИС прямо выполняет обязанности судьи. Однако сегодня еще слишком рано оценивать успешность этой ИС, и стороны все еще могут обжаловать ее решение у судьи-человека.

Известны примеры применения ИС в медиации, так как они могут обеспечить удобное, быстрое и недорогое решение многих простых споров. Однако если споры становятся более сложными, применение для этих целей ИС может предполагать наличие ряда вызовов. Медиация может включать в себя моменты неоднозначного толкования нормы права, отдельных элементов фактического состава, социальные и эмоциональные аспекты взаимодействия участников, а также межличностные и культурные различия - все они могут быть сложными для ИС, чтобы эффективно разрешить их, следуя заложенным в их базах данных сведениям [6].

Правительства также все чаще используют ИС для облегчения судебного разбирательства. Например, отдельные штаты США используют систему Маттерхорн для управления непогашенными ордерами и нарушениями правил дорожного движения и решения семейно-правовых споров.

Чтобы ИС успешно автоматизировала разрешение широкого круга споров, она должна быть не только эффективной, но и справедливой, или, по крайней мере, функционировать в рамках принципа справедливости. Некоторые критики считают, что «машинное правосудие» не может заменить существующие процессы. С этой точки зрения, нет никакой замены рассуждениям и способностям человека принимать решения, не говоря уже о здравом смысле, для любого спора, умеренно сложного или выходящего за рамки узких областей. Иными словами, критики утверждают, что справедливость – это исключительно человеческая черта, которую ИС не может и не должна пытаться воспроизвести [2].

С другой стороны, люди долгое время верили, что ИС никогда не смогут быть творческими, и все же современные ИС создают аудио-произведения, пишут романы и рисуют портреты (произведения науки, литературы и искусства). ИС может быть творческой, если она запрограммирована быть таковой, и она может вести себя справедливо, если будет запрограммирована функционировать в рамках принципа справедливости.

Таким образом, ИС сегодня успешно применяются в различных сферах, однако, чтобы исключить множественные риски, связанные с их применением, необходимо принять соответствующие нормативные правовые акты и в дальнейшем разрабатывать последующие шаги по развитию правовой политики в сфере регулирования отношений с участием ИС.

В комплекс принципов, регулирующих указанные выше отношения, следует включить принцип правовой нейтральности ИС, чтобы гарантировать, что не будут воздвигнуты ненужные барьеры, мешающие реализовать преимущества ИС.

Искусственный интеллект должен быть частью юридического сообщества, чтобы способствовать человеческому благосостоянию. Со временем, поскольку ИС все больше пре- восходит людей в осуществлении суждений и в конечном итоге становится общепринятым способом решения проблем, она должна получить новое осмысление в мировых юридических стандартах. По мере того, как увеличивается роль ИС в выполнении традиционной роли, отводимой людям, она должна стать мерой всех вещей. Тогда задача человека может свестись не только к тому, как регулировать ИС, сколько к тому, как регулировать самого себя.

Список литературы Оценка необходимости принятия правовой нейтральности интеллектуальных систем

  • Арямов, А. А. Девиации в цифровом мире: уголовно-правовое измерение / А. А. Арямов, Ю. В. Грачева, А. И. Чучаев, С. В. Маликов, С. А. Иванов. - М., 2019. - Ч. I. - 160 с.
  • Бурова, А. Ю. Использование искусственного интеллекта: наука и регулирование / А. Ю. Бурова // Право и экономика. - 2018. - № 9. - С. 5-8.
  • Грачева, Ю. В. Роботизация и искусственный интеллект: уголовно-правовые риски в сфере общественной безопасности / Ю. В. Грачева, А. А. Арямов // Актуальные проблемы российского права. - 2020. - № 6 (115). - С. 169-178.
  • Серова, О. А. Роботы как участники цифровой экономики: проблемы определения правовой природы / О. А. Серова // Гражданское право. - 2018. - № 3. - С. 22-24.
  • Visa A. J. Kurki and Tomasz Pietrzykowski. Legal Personhood: Animals, Artificial Intelligence and the Unborn // Derecho Animal (Forum of Animal Law Studies), 2018, vol. 9/3, pp. 187-190.
  • Trentesaux, D., Rault, R. Ethical behaviour of autonomous non-military cyber-physical systems // Проблемы управления и моделирования в сложных системах: труды XIX Международной конференции / под ред. Е. А. Федосова, Н. А. Кузнецова, В. А. Виттиха. - Самара, 2017. - С. 26-34.
  • Calo, R. Robotics and the Lessons of Cyberlaw // California Law Review, 2015, no. 3. Vol. 103, pp. 513-563.
Еще
Статья научная