Понятие искусственного интеллекта в отечественном праве: эволюция нормативного поля

Автор: Яковлев Д.Е.

Журнал: Общество: политика, экономика, право @society-pel

Рубрика: Право

Статья в выпуске: 6, 2025 года.

Бесплатный доступ

Статья посвящена анализу нормативного регулирования феномена искусственного интеллекта в российском праве. Рассматриваются доктринальные подходы к понятию искусственного интеллекта, выделяются их достоинства и ограничения. Особое внимание уделено анализу действующих нормативных актов, содержащих понятие искусственного интеллекта. Проводится критическая оценка существующих формулировок и их соответствия современному уровню технического развития. В статье автор обосновывает необходимость функционального и технически нейтрального подхода к определению искусственного интеллекта для целей правового регулирования. Делается вывод о фрагментарности существующей нормативной базы, подчеркивается необходимость разработки универсального, гибкого и техноморфного понятия искусственного интеллекта, способного учитывать как текущие, так и будущие технологические изменения, а также соответствовать потребностям оборота и правоприменительной практики в условиях цифровой трансформации.

Еще

Искусственный интеллект, правовое регулирование, юридическая дефиниция, управление, интеллектуальные системы, цифровые технологии, правовая неопределенность, функциональный подход

Короткий адрес: https://sciup.org/149148242

IDR: 149148242   |   УДК: 342   |   DOI: 10.24158/pep.2025.6.21

The Concept of Artificial Intelligence in Russian Law: Evolution of the Regulatory Framework

This article analyzes the regulatory framework governing artificial intelligence in Russian law. It examines doctrinal approaches to the concept of artificial intelligence, highlighting their advantages and limita-tions. Particular attention is paid to the analysis of existing normative acts containing the concept of artificial intelli-gence. A critical assessment of existing formulations and their compliance with the current level of technical devel-opment is carried out. In the article, the author substantiates the need for a functional and technically neutral ap-proach to the definition of artificial intelligence for the purposes of legal regulation. Conclusion dwells upon the fragmentary nature of the existing regulatory framework and emphasizes the need to develop a universal, flexible, and technomorphic concept of artificial intelligence that can take into account both current and future technological changes and meet the needs of circulation and law enforcement practice in the context of digital transformation.

Еще

Текст научной статьи Понятие искусственного интеллекта в отечественном праве: эволюция нормативного поля

Саранск, Россия, ,

,

Введение. Одним из наглядных примеров действия закона «ускоряющейся отдачи»1 является взрывной прогресс в области автоматизированных систем и технологий искусственного интеллекта (далее – ИИ). Этот процесс сопровождается активным внедрением инновационных ре- шений в различные сферы жизни: экономику, медицину, образование, промышленность и даже искусство. Внедрение ИИ-технологий оказывает значительное влияние на общество, открывая новые перспективы, но одновременно порождая правовые и этические вызовы.

Ключевым аспектом, требующим внимательного рассмотрения, является нормативное регулирование применения систем с использованием искусственного интеллекта, поскольку «в современных условиях мирового сообщества их исследование, развитие и регламентация неизбежны» (Саяпина, 2023: 107). По мере распространения таких систем возрастает потребность в пересмотре существующих законодательных норм и выработке новых подходов к контролю за использованием. В этом контексте особенно важной задачей становится создание правовых механизмов, способных учитывать не только потенциал технологий, но и возможные риски, связанные с их нерациональным или неконтролируемым применением.

В настоящей статье рассматривается эволюция правового регулирования и появления понятия «искусственный интеллект» в отечественном праве, начиная с первых серьезных упоминаний, до текущих законодательных инициатив. Особое внимание уделено анализу самого термина, поскольку категориальный аппарат – «обязательная принадлежность любой самостоятельной области знаний, ее отличительный элемент» (Колодуб, 2021: 125). Понятия играют ключевую роль в правовом регулировании искусственного интеллекта, так как именно они определяют основу для создания понятных, последовательных и действенных норм.

Кроме того, проводится анализ некоторых доктринальных позиций, выявляющий моменты для будущих дискуссий и возможных направлений правотворчества.

Определение искусственного интеллекта в отечественной доктрине . В самом начале целесообразным будет обратиться к некоторым доктринальным определениям искусственного интеллекта, поскольку именно они формируют теоретическую основу для регулирования данной сферы. Несмотря на отсутствие универсального подхода к пониманию ИИ, в литературе предлагаются разнообразные трактовки данного феномена, отражающие как техническую, так и правовую природу. Анализ этих определений позволяет выявить ключевые характеристики ИИ, отличающие его от смежных технологий, а также очертить пределы нормативного регулирования. Таким образом, доктринальные подходы к определению ИИ должны играть важную роль не только в научном осмыслении, но и помогать в разработке нормативных актов, обеспечивающих правовую определенность.

В отечественной доктрине работа по формированию единого определения искусственного интеллекта ведется довольно продолжительное время. Основной вызов заключается в том, что технологии искусственного интеллекта развиваются чрезвычайно быстро, что делает сложным их закрепление в рамках жестких формулировок. Свою роль играет и отсутствие единообразного подхода в иностранных источниках.

Сложность также заключается в многогранности самого феномена искусственного интеллекта. В зависимости от контекста он может рассматриваться и как инструмент, и как технологическая система, и даже как потенциальный субъект правовых отношений. Такой разноплановый характер ИИ требует от юридического сообщества особой внимательности в формулировках, которые должны быть одновременно универсальными и достаточно гибкими. Например, в ряде случаев под ИИ понимается самообучающийся алгоритм (Войниканис и др., 2018: 137‒138), а в других ‒ комплекс программных и аппаратных решений, предназначенных для выполнения конкретных задач1.

Необходимо учитывать и различия в интересах групп, которые вовлечены в разработку и применение технологий искусственного интеллекта. Разработчики обычно настаивают на максимально широком понимании ИИ, чтобы сохранить пространство для инноваций, тогда как государственные органы, напротив, заинтересованы в четких правовых границах, позволяющих обеспечить надлежащий контроль за технологиями.

На сегодняшний день в отечественных работах наибольшее распространение получил функциональный подход к определению ИИ, отражающий его способность решать когнитивные задачи, традиционно относимые к интеллектуальной деятельности человека: обучаться, принимать решения, выполнять задачи и адаптироваться к новым условиям (Семин и др., 2023).

Наиболее четко критерии функционального подхода к определению отражены в статье А.В. Васильева, Д. Шпоппера и М.Х. Матаевой. Авторы выделяют следующие ключевые признаки: «наличие технического устройства, способность к автономной работе, самообучение на основе анализа…, мышление и способность к принятию самостоятельных решений» (Васильев и др., 2018: 35).

Среди других подходов можно выделить следующие:

  • 1)    технологический подход ‒ трактует ИИ как совокупность конкретных методов и технологий, включая машинное обучение, нейронные сети, обработку естественного языка, без обязательной привязки к антропоморфным характеристикам (Lippmann, 1987);

  • 2)    антропоморфный подход (наиболее противоречивый) ‒ рассматривает ИИ как систему, способную имитировать человеческое мышление настолько точно, чтобы быть неотличимой от человека в ходе естественного взаимодействия (Мамина, Пирайнен, 2023);

  • 3)    результативно-целевой ‒ данный подход фокусируется на рациональном действии ‒ ИИ определяется как система, способная оптимально достигать поставленных целей в заданной среде, используя доступные информационные ресурсы (Russell, Norvig, 2021).

Чаще исследователи используют сразу несколько подходов, что делает определение ИИ более разносторонним.

Антропоморфный и результативно-целевой подходы

С.А. Чеховская предлагает под ИИ понимать имитацию естественного интеллекта, выполняемую с помощью алгоритмов, машин и компьютерных систем, которая в конечном счете стремится к оптимальному выполнению определенных действий (Чеховская, 2021).

Касаемо данного определения можно отметить следующие моменты.

Термин «естественный интеллект» сам по себе не имеет четкого научного определения. Интеллект человека включает в себя не только обработку информации и принятие решений, но и творческое мышление, эмоции, интуицию и социальное взаимодействие, что трудно поддается имитации.

В определении не упомянуты важные аспекты, такие как способность к самообучению, адаптации к изменяющимся условиям и обработке больших объемов данных. Современные системы ИИ отличаются от обычных алгоритмов именно этими свойствами.

Оптимизация выполнения задач ‒ важный аспект, но не всегда основная цель ИИ. Например, генеративные модели создают контент, а не оптимизируют выполнение конкретных действий. Также существуют нейросетевые модели, которые ориентированы на творчество, предсказания или моделирование, а не на поиск наилучшего решения в классическом смысле.

Технологически-функциональный подход

По мнению Э.М. Пройдакова, «искусственный интеллект ‒ это наука и технология, включающая набор средств, позволяющих компьютеру на основании накопленных знаний давать ответы на вопросы и делать на базе этого экспертные выводы, т. е. получать знания, которые в него не закладывались разработчиками» (Пройдаков, 2018: 130).

Определение Э.М. Пройдакова отражает важные аспекты ИИ, но в современных реалиях оно выглядит узким и недостаточно универсальным. Для более точного определения следует учитывать не только экспертные функции ИИ, но и его адаптивность, способность к обучению, анализу данных и автономному принятию решений.

Функциональный подход с антропоморфными элементами

М.И. Хубулова считает, что искусственный интеллект – «уникальная технология, предназначенная для поиска, обработки, анализа, обобщения информации и принятия на основе имеющихся данных интеллектуального решения (схожего с человеческим)» (Хубулова, 2022: 46).

Здесь можно увидеть классические проблемы: неоднозначность терминов (в частности, понятие «уникальная технология»), сравнение с человеческим мышлением и отсутствие указания на способность к самообучению. Определение затрагивает важные аспекты ИИ, однако его можно уточнить, добавив характеристику обучаемости и избегая прямых аналогий с человеческим мышлением.

В целом, можно согласиться с А.В. Шилейко, по мнению которого «дефиниция искусственного интеллекта во многом зависит от целей, которые ставит перед собой исследователь» (Ши-лейко, 1970: 42).

Таким образом, анализ доктринальных подходов позволяет выделить ряд ключевых характеристик ИИ: способность к самообучению и адаптации, автономность принятия решений, функциональная многозначность и проч. Кроме того, важной чертой искусственного интеллекта является способность выполнять широкий перечень задач, не всегда сводящийся к оптимизации.

Вместе с тем попытки определения ИИ через антропоморфный подход порождают методологические трудности и неопределенность. Акцент на антропоморфизме игнорирует специфику машинного интеллекта, который может превосходить человеческий в узких задачах (анализ данных), но не обладать «сознанием». Кроме того, наделение понятия человеческими чертами может создать необоснованные ожидания относительно ответственности ИИ (например, попытки признать ИИ «субъектом права»). Можно в целом согласиться с Н. Бостромом, который считает, что «когнитивная архитектура ИИ будет резко отличаться от когнитивной системы человека» (Бостром, 2016: 39).

Фактически нормативное определение искусственного интеллекта должно содержать одновременно и гибкие, и функционально точные формулировки, способные учитывать стремительное развитие сферы, многообразие форм применений и интересы участников.

В конечном счете выбор дефиниции зависит от целей, которые ставятся перед регулированием, что делает задачу выработки единого определения особенно сложной, но принципиально важной.

Законодательное регулирование ИИ: первые шаги . По данным Ассоциации лабораторий по развитию искусственного интеллекта (АЛРИИ), нормативно-правовая база регулирования ИИ состоит из более чем 50 НПА1, включая распоряжения правительства, дорожные карты, указы президента и иные акты. Детальное рассмотрение каждого из них в контексте развития регулирования ИИ является излишним, поскольку до недавнего времени нормативные акты в лучшем случае подготавливали почву или вовсе упоминали ИИ как нечто отдаленное, но перспективное в будущем.

Первые серьезные упоминания об искусственном интеллекте в отечественном праве появились совсем недавно. В 2017 г. вышел проект «Цифровая экономика РФ»2 (утвержден Правительством РФ, распоряжение № 1632-р). Уже тогда ИИ обозначался как одно из ключевых направлений государственной политики в рамках программы «Цифровая экономика». В данном контексте ИИ упоминается наряду с Big Data, нейротехнологиями, компонентами робототехники и иными перспективными направлениями.

ИИ осторожно вводится в стратегическую повестку без попытки его юридической формализации. В проекте он выступает как технологическая категория, связанная с развитием промышленности, государственного управления и научных исследований.

Программа только закрепила намерение государства развивать и внедрять технологии, основанные на искусственном интеллекте, создавая правовую и инфраструктурную среду. Эти положения носили рамочный, декларативный характер. На данном этапе отсутствовали конкретные механизмы правового регулирования ИИ, равно как и его разграничение со смежными понятиями. Таким образом, Проект «Цифровая экономика» отметил появление ИИ в публичной повестке России, но не породил самостоятельного правового статуса.

Вместе с тем такой шаг позволил заложить основу для дальнейших шагов, включая Указ Президента № 490. В хронологическом контексте программа «Цифровая экономика» – переходный этап от упоминаний «в одну строчку» и отсутствия какой-либо регламентации до институци-ализации в правовом поле.

2018 год как раз ознаменовал один из этапов такой институализации ИИ в государственной политике. Несмотря на продолжающееся отсутствие прямого государственного регулирования в этот период, в деятельности ключевых для экономики органов исполнительной власти – Министерства экономического развития и Министерства промышленности и торговли ‒ прослеживается качественный переход от декларативного упоминания ИИ к конкретным шагам по его интеграции в отечественную экономику.

Минэкономразвития приступило к формированию концептуальных основ регулирования искусственного интеллекта (концепция утверждена в 2020 г.)3, предложив двухуровневую модель: общеотраслевую, направленную на формирование условий безопасного и этичного использования ИИ, и отраслевую, фокусирующуюся на применении ИИ в различных сферах – транспорте, медицине, образовании и промышленности. Инициатива носила пред-регулятивный характер и отражала намерение государства создать правовую основу, которая соответствовала бы масштабам и рискам развития ИИ. Параллельно с этим, Минпромторг начал внедрение ИИ и технологий обработки Big Data в управленческую и аналитическую деятельность4.

Таким образом, всего за один год можно увидеть переход от декларирования к первым попыткам формирования правового феномена ИИ. Хотя формально правовой статус все еще отсутствовал, заложенные подходы, принципы и приоритеты создали фундамент для полноценной нормативной базы в 2019 г.

Понятие искусственного интеллекта в отечественном праве . Принятие Указа Президента РФ от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федерации» ознаменовало собой поворотный момент в истории отечественного нормативного регулирования ИИ. Впервые ИИ был не только упомянут, но и получил юридически значимое определение, что закрепило его как самостоятельный объект правового регулирования.

В пункте 5а Национальной стратегии развития искусственного интеллекта до 2030 года (далее – Стратегия) ИИ определяется как «комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их»1. Данное определение, хотя и выглядит вполне гармонично, может вызвать ряд содержательных и прикладных трудностей. С одной стороны, оно может создать практические проблемы для правоприменения, а с другой ‒ отражает концептуально спорные и методологически некорректные представления о природе искусственного интеллекта.

С прикладной стороны можно выделить следующие проблемы.

Во-первых, данная формулировка отличается излишней абстрактностью и оценочным характером. Понятия «имитация когнитивных функций», «результаты, сопоставимые с…», «поиск решений без алгоритма» не имеют четкого правового или технического содержания. Это может привести к неопределенности как в правоприменении, так и в идентификации систем, подпадающих под такое регулирование. Без четких критериев государственные органы, суды и участники оборота будут по-разному интерпретировать, что же именно считать искусственным интеллектом.

Во-вторых, такое определение снижает разграничение между ИИ и иными формами автоматизации. Даже простые алгоритмы машинного обучения при расширительном толковании могут быть включены в сферу регулирования ИИ, что приведет к неоправданной регуляторной нагрузке и сдерживанию технологического развития.

В-третьих, использование антропоморфной риторики: «имитация человеческого интеллекта, когнитивные функции и т. п.» создает трудности для международной гармонизации. Как пример ‒ международные стандарты OECD2 или проект ISO/IEC 22989:20223. Стандарты OECD закрепляют ценностные и институциональные принципы регулирования ИИ, включая прозрачность, подотчетность, безопасность и соблюдение прав человека. Они служат основой для национальных стратегий и законодательных подходов развитых государств. Пункт 3.1.4 стандарта ISO/IEC 22989:2022 предлагает технически нейтральное и операционализируемое определение ИИ как системы, которая «генерирует выходные данные … для достижения заданных человеком целей». В регламенте ЕС об искусственном интеллекте (AI Act 2024)4 положения ISO/IEC используются как основа для определения ИИ-систем и ориентир для их сертификации (прямо в AI Act 2024 об этом не говорится, однако, кроме фактически соответствующего стандартам содержания, в ст. 40 есть ссылка на «harmonised standards»).

С другой стороны, имеются проблемы и с концептуально-научной стороны.

Когнитивные функции человека разнообразны, они включают, в частности, восприятие, память, мышление, обучение, принятие решений и другие процессы. Однако не все технологии ИИ имитируют их полностью. Многие алгоритмы машинного обучения решают узкоспециализированные задачи (например, создание или анализ изображений), но не обладают полноценным когнитивным мышлением, как у человека. Более того, само понятие «имитация» не совсем уместно. ИИ не всегда имитирует мышление человека, а иногда использует совершенно иные математические методы для достижения аналогичных или даже лучших результатов.

В каких именно аспектах сравнивается интеллектуальная деятельность человека и ИИ? В одних задачах (например, распознавание образов5) ИИ уже превосходит человека, в других (абстрактное мышление, творчество) ‒ сильно отстает. Нет четких критериев, что значит «сопоставимые» результаты. Это субъективное выражение, которое может быть интерпретировано по-разному.

Кроме того, такая формулировка понятия предполагает, что искусственный интеллект способен принимать решения без «заранее заданного алгоритма», что некорректно с научной точки зрения. Современные ИИ-системы, включая нейросети, опираются на модели и алгоритмы, пусть и обученные на больших массивах данных. Попытки определить ИИ как алгоритмически неописуемую сущность искажают его техническую природу.

Таким образом, предложенный подход к определению искусственного интеллекта содержит ряд рисков. Для эффективного регулирования этой сферы требуются более четкие, технически обоснованные и функциональные критерии, которые могли бы стать надежной основой для правовых норм.

Текст Стратегии в пункте 5 содержит интересную оговорку: «для целей стратегии используются следующие понятия». Она позволяет сделать вывод о том, что приведенное в документе понятие искусственного интеллекта не претендует на место единственного или универсального. Напротив, оно должно являться практическим ориентиром, который помогает структурировать подходы к регулированию и разработке НПА, затрагивающих сферу ИИ.

Другими словами, это рабочее определение, которое можно дополнять или уточнять, в зависимости от будущих целей или контекста. С одной стороны, такой подход позволяет сохранить гибкость в регулировании и учитывать динамическое развитие сферы ИИ, но с другой ‒ оно все же далеко от идеала, на который можно опереться.

Следующим актом, в котором понятие ИИ должно было получить развитие, является Федеральный закон от 24.04.2020 № 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации – городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона “О персональных данных”»1. В акте (статья 2) ИИ определяется как «комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека»2.

Хотя формулировка не полностью идентична той, что закреплена в Стратегии, она максимально приближена к ней (сохранены почти дословно все проблемные элементы, проанализированные выше). Это может быть как свидетельством того, что отечественный законодатель стремится к унификации терминологии в отсутствие единого понятия, так и некритическим подходом, копированием определения без его глубокого анализа.

В последующем нормативные и нормативно-технические (например, ГОСТ Р 70949-20233) акты нововведений в понятие искусственного интеллекта практически не привнесли.

Выделяется только ГОСТ Р 71476-20244, закрепивший градацию систем искусственного интеллекта в зависимости от степени ее автономности (автономная и специализированная).

Включение подобной градации в текст закона было бы интересным, но противоречивым решением. С одной стороны, градация позволила бы более точно оценивать риски, связанные с применением ИИ, вводить специальное регулирование под разные виды систем, что важно в отраслях с высокими рисками – здравоохранении или общественной безопасности. Кроме того, это позволит снять часть этического вопроса за счет вмешательства человека в деятельность некоторых систем.

Однако, с другой стороны, введение четкой градации несет в себе риск усложнений разработки НПА, поскольку развитие систем ИИ влияет на уровень их автономности. Кроме того, сложным представляется четкое разделение на автономные и неавтономные системы. Как точно определить уровень автономности? Какие параметры будут использоваться для классификации? Это требует разработки четкой и понятной методологии, что может быть трудным и затратным процессом.

В конечном итоге возможным решением может быть более гибкий перечень, например, в статье 6 AI Act 2024 системы ИИ подразделяются в зависимости от риска.

  • –    Минимальный риск: например, спам-фильтры или видеоигры с ИИ.

  • –    Умеренный риск: системы, влияющие на повседневную жизнь, но не представляющие серьезной угрозы.

  • –    Высокий риск: системы, используемые в критически важных сферах, таких как здравоохранение, правосудие, транспорт.

  • –    Неприемлемый риск: системы, полностью запрещенные из-за их потенциальной угрозы, например, массовое распознавание лиц в реальном времени.

Такой подход позволяет адаптировать закон к различным уровням автономности и областям применения, что способствует стимулированию инноваций при обеспечении безопасности и соблюдении прав граждан. В настоящее время он реализуется в проекте закона, который рассмотрим далее.

Как говорилось ранее, иные НПА больше не затрагивали определение ИИ. Детальный их обзор выходит за предмет настоящей работы.

На момент написания данной статьи в официальных источниках информации говорится о создании проекта федерального закона «О регулировании систем искусственного интеллекта» (2025). Хотя текста самого законопроекта обнаружить не удалось. По информации, предоставленной разработчиками различным СМИ, проект представляет собой НПА, разработанный в продолжение Национальной стратегии развития ИИ и Указа Президента РФ №490.

Положительным моментом является то, что законопроект представляет собой первую попытку комплексного регулирования сферы ИИ в российском праве. В частности, документ вводит классификацию систем ИИ по уровням риска ‒ от минимального до неприемлемого ‒ и устанавливает дифференцированные правовые режимы для систем с высоким риском: обязательную регистрацию, сертификацию, маркировку и страхование ответственности1.

Авторы документа также предлагают ввести ответственность за нанесение ущерба жизненно важным интересам. Однако в проекте есть оговорки: разработчики и операторы смогут избежать наказания, если докажут, что действовали в полном соответствии с установленными нормами и требованиями2.

Законопроект, однако, вызывает справедливую критику. Основной недостаток ‒ сохранение концептуальных проблем Указа №490, включая расплывчатое определение ИИ, которое механически дублируется без привязки к технологическим стандартам и уровням автономности. Фактически документ пока не решает ключевых вопросов: классификации технологий, распределения ответственности и устранения методологических противоречий, унаследованных от предыдущих нормативных актов.

Выводы . Лучше всего текущее состояние правового регулирования ИИ можно охарактеризовать как находящееся в зачаточном состоянии. Резюмируя проблему, отметим следующее.

  • 1.    Фрагментарность (разрозненность) законодательных инициатив . Несмотря на наличие экспериментальных правовых режимов и разработку концепций регулирования, можно отметить на текущий момент недостаточную координацию между различными ведомствами и отсутствие комплексного законодательства в этой сфере. Аналогичную позицию, подчеркивающую необходимость системного подхода в правовом регулировании ИИ, высказывают некоторые ученые (Сливицкий А., Сливицкий Б., 2024: 57).

  • 2.    Антропоморфная риторика . Часто используется терминология, приписывающая ИИ человеческие качества: «принимает решения», «действует», «может быть субъектом права». Это сбивает с толку в юридическом смысле и мешает точному определению ответственности.

  • 3.    Неопределенность границ применения регулирования . Вследствие общих формулировок и отсутствия ясного определения ИИ невозможно определить:

  • –    применимо ли регулирование к системам, основанным на простых алгоритмах или биз-нес-логике;

  • –    должны ли разработчики, создающие, например, рекомендательные системы, соблюдать этические принципы и стандарты ИИ;

  • –    является ли, например, чат-бот ИИ или просто цифровым интерфейсом.

  • 4.    Невозможность разработки дифференцированных правовых режимов . Без четкого определения ИИ (и его подтипов) нельзя выстроить профильное регулирование для разных областей применения: медицины, транспорта, обороны, образования и т. д.

Для законодательного регулирования систем искусственного интеллекта необходимо, чтобы понятие ИИ включало в себя ряд ключевых элементов, которые обеспечивали бы технологическую нейтральность, юридическую определенность и применимость к различным правовым режимам.

Во-первых, следует указать на форму реализации ИИ как технологической системы.

Во-вторых, важно отразить функциональные характеристики, включая способность анализировать данные, выявлять закономерности, обучаться, прогнозировать, принимать решения и генерировать информацию.

В-третьих, необходимо зафиксировать наличие автономности, то есть возможность функционировать с различной степенью самостоятельности.

В-четвертых ‒ обработка и интерпретация различных типов данных, включая текст, изображение, звук и видео.

В-пятых – целевая направленность ИИ на выполнение различных задач, автоматизация процессов, поддержка принятия решения и проч.

И наконец – технологическая нейтральность и универсальность применения.

Следуя указанным выше рекомендациям, можно определить ИИ как программно-аппаратную систему, функционирующую с различной степенью автономии и предназначенную для выполнения определенных задач за счет обработки данных, включая текстовую, аудиовизуальную и иную информацию, с применением методов моделирования когнитивных функций человека, в том числе анализа, прогнозирования, классификации, генерации, а также способности к обучению на основе опыта. Искусственный интеллект используется в целях автоматизации процессов и (или) поддержки принятия решений человеком и не обладает признаками субъекта права. Настоящее определение не распространяется на системы, реализующие исключительно алгоритмы с фиксированными правилами и не обладающие способностью к адаптации или обучению.