Понятие искусственного интеллекта в отечественном праве: эволюция нормативного поля
Автор: Яковлев Д.Е.
Журнал: Общество: политика, экономика, право @society-pel
Рубрика: Право
Статья в выпуске: 6, 2025 года.
Бесплатный доступ
Статья посвящена анализу нормативного регулирования феномена искусственного интеллекта в российском праве. Рассматриваются доктринальные подходы к понятию искусственного интеллекта, выделяются их достоинства и ограничения. Особое внимание уделено анализу действующих нормативных актов, содержащих понятие искусственного интеллекта. Проводится критическая оценка существующих формулировок и их соответствия современному уровню технического развития. В статье автор обосновывает необходимость функционального и технически нейтрального подхода к определению искусственного интеллекта для целей правового регулирования. Делается вывод о фрагментарности существующей нормативной базы, подчеркивается необходимость разработки универсального, гибкого и техноморфного понятия искусственного интеллекта, способного учитывать как текущие, так и будущие технологические изменения, а также соответствовать потребностям оборота и правоприменительной практики в условиях цифровой трансформации.
Искусственный интеллект, правовое регулирование, юридическая дефиниция, управление, интеллектуальные системы, цифровые технологии, правовая неопределенность, функциональный подход
Короткий адрес: https://sciup.org/149148242
IDR: 149148242 | DOI: 10.24158/pep.2025.6.21
Текст научной статьи Понятие искусственного интеллекта в отечественном праве: эволюция нормативного поля
Саранск, Россия, ,
,
Введение. Одним из наглядных примеров действия закона «ускоряющейся отдачи»1 является взрывной прогресс в области автоматизированных систем и технологий искусственного интеллекта (далее – ИИ). Этот процесс сопровождается активным внедрением инновационных ре- шений в различные сферы жизни: экономику, медицину, образование, промышленность и даже искусство. Внедрение ИИ-технологий оказывает значительное влияние на общество, открывая новые перспективы, но одновременно порождая правовые и этические вызовы.
Ключевым аспектом, требующим внимательного рассмотрения, является нормативное регулирование применения систем с использованием искусственного интеллекта, поскольку «в современных условиях мирового сообщества их исследование, развитие и регламентация неизбежны» (Саяпина, 2023: 107). По мере распространения таких систем возрастает потребность в пересмотре существующих законодательных норм и выработке новых подходов к контролю за использованием. В этом контексте особенно важной задачей становится создание правовых механизмов, способных учитывать не только потенциал технологий, но и возможные риски, связанные с их нерациональным или неконтролируемым применением.
В настоящей статье рассматривается эволюция правового регулирования и появления понятия «искусственный интеллект» в отечественном праве, начиная с первых серьезных упоминаний, до текущих законодательных инициатив. Особое внимание уделено анализу самого термина, поскольку категориальный аппарат – «обязательная принадлежность любой самостоятельной области знаний, ее отличительный элемент» (Колодуб, 2021: 125). Понятия играют ключевую роль в правовом регулировании искусственного интеллекта, так как именно они определяют основу для создания понятных, последовательных и действенных норм.
Кроме того, проводится анализ некоторых доктринальных позиций, выявляющий моменты для будущих дискуссий и возможных направлений правотворчества.
Определение искусственного интеллекта в отечественной доктрине . В самом начале целесообразным будет обратиться к некоторым доктринальным определениям искусственного интеллекта, поскольку именно они формируют теоретическую основу для регулирования данной сферы. Несмотря на отсутствие универсального подхода к пониманию ИИ, в литературе предлагаются разнообразные трактовки данного феномена, отражающие как техническую, так и правовую природу. Анализ этих определений позволяет выявить ключевые характеристики ИИ, отличающие его от смежных технологий, а также очертить пределы нормативного регулирования. Таким образом, доктринальные подходы к определению ИИ должны играть важную роль не только в научном осмыслении, но и помогать в разработке нормативных актов, обеспечивающих правовую определенность.
В отечественной доктрине работа по формированию единого определения искусственного интеллекта ведется довольно продолжительное время. Основной вызов заключается в том, что технологии искусственного интеллекта развиваются чрезвычайно быстро, что делает сложным их закрепление в рамках жестких формулировок. Свою роль играет и отсутствие единообразного подхода в иностранных источниках.
Сложность также заключается в многогранности самого феномена искусственного интеллекта. В зависимости от контекста он может рассматриваться и как инструмент, и как технологическая система, и даже как потенциальный субъект правовых отношений. Такой разноплановый характер ИИ требует от юридического сообщества особой внимательности в формулировках, которые должны быть одновременно универсальными и достаточно гибкими. Например, в ряде случаев под ИИ понимается самообучающийся алгоритм (Войниканис и др., 2018: 137‒138), а в других ‒ комплекс программных и аппаратных решений, предназначенных для выполнения конкретных задач1.
Необходимо учитывать и различия в интересах групп, которые вовлечены в разработку и применение технологий искусственного интеллекта. Разработчики обычно настаивают на максимально широком понимании ИИ, чтобы сохранить пространство для инноваций, тогда как государственные органы, напротив, заинтересованы в четких правовых границах, позволяющих обеспечить надлежащий контроль за технологиями.
На сегодняшний день в отечественных работах наибольшее распространение получил функциональный подход к определению ИИ, отражающий его способность решать когнитивные задачи, традиционно относимые к интеллектуальной деятельности человека: обучаться, принимать решения, выполнять задачи и адаптироваться к новым условиям (Семин и др., 2023).
Наиболее четко критерии функционального подхода к определению отражены в статье А.В. Васильева, Д. Шпоппера и М.Х. Матаевой. Авторы выделяют следующие ключевые признаки: «наличие технического устройства, способность к автономной работе, самообучение на основе анализа…, мышление и способность к принятию самостоятельных решений» (Васильев и др., 2018: 35).
Среди других подходов можно выделить следующие:
-
1) технологический подход ‒ трактует ИИ как совокупность конкретных методов и технологий, включая машинное обучение, нейронные сети, обработку естественного языка, без обязательной привязки к антропоморфным характеристикам (Lippmann, 1987);
-
2) антропоморфный подход (наиболее противоречивый) ‒ рассматривает ИИ как систему, способную имитировать человеческое мышление настолько точно, чтобы быть неотличимой от человека в ходе естественного взаимодействия (Мамина, Пирайнен, 2023);
-
3) результативно-целевой ‒ данный подход фокусируется на рациональном действии ‒ ИИ определяется как система, способная оптимально достигать поставленных целей в заданной среде, используя доступные информационные ресурсы (Russell, Norvig, 2021).
Чаще исследователи используют сразу несколько подходов, что делает определение ИИ более разносторонним.
Антропоморфный и результативно-целевой подходы
С.А. Чеховская предлагает под ИИ понимать имитацию естественного интеллекта, выполняемую с помощью алгоритмов, машин и компьютерных систем, которая в конечном счете стремится к оптимальному выполнению определенных действий (Чеховская, 2021).
Касаемо данного определения можно отметить следующие моменты.
Термин «естественный интеллект» сам по себе не имеет четкого научного определения. Интеллект человека включает в себя не только обработку информации и принятие решений, но и творческое мышление, эмоции, интуицию и социальное взаимодействие, что трудно поддается имитации.
В определении не упомянуты важные аспекты, такие как способность к самообучению, адаптации к изменяющимся условиям и обработке больших объемов данных. Современные системы ИИ отличаются от обычных алгоритмов именно этими свойствами.
Оптимизация выполнения задач ‒ важный аспект, но не всегда основная цель ИИ. Например, генеративные модели создают контент, а не оптимизируют выполнение конкретных действий. Также существуют нейросетевые модели, которые ориентированы на творчество, предсказания или моделирование, а не на поиск наилучшего решения в классическом смысле.
Технологически-функциональный подход
По мнению Э.М. Пройдакова, «искусственный интеллект ‒ это наука и технология, включающая набор средств, позволяющих компьютеру на основании накопленных знаний давать ответы на вопросы и делать на базе этого экспертные выводы, т. е. получать знания, которые в него не закладывались разработчиками» (Пройдаков, 2018: 130).
Определение Э.М. Пройдакова отражает важные аспекты ИИ, но в современных реалиях оно выглядит узким и недостаточно универсальным. Для более точного определения следует учитывать не только экспертные функции ИИ, но и его адаптивность, способность к обучению, анализу данных и автономному принятию решений.
Функциональный подход с антропоморфными элементами
М.И. Хубулова считает, что искусственный интеллект – «уникальная технология, предназначенная для поиска, обработки, анализа, обобщения информации и принятия на основе имеющихся данных интеллектуального решения (схожего с человеческим)» (Хубулова, 2022: 46).
Здесь можно увидеть классические проблемы: неоднозначность терминов (в частности, понятие «уникальная технология»), сравнение с человеческим мышлением и отсутствие указания на способность к самообучению. Определение затрагивает важные аспекты ИИ, однако его можно уточнить, добавив характеристику обучаемости и избегая прямых аналогий с человеческим мышлением.
В целом, можно согласиться с А.В. Шилейко, по мнению которого «дефиниция искусственного интеллекта во многом зависит от целей, которые ставит перед собой исследователь» (Ши-лейко, 1970: 42).
Таким образом, анализ доктринальных подходов позволяет выделить ряд ключевых характеристик ИИ: способность к самообучению и адаптации, автономность принятия решений, функциональная многозначность и проч. Кроме того, важной чертой искусственного интеллекта является способность выполнять широкий перечень задач, не всегда сводящийся к оптимизации.
Вместе с тем попытки определения ИИ через антропоморфный подход порождают методологические трудности и неопределенность. Акцент на антропоморфизме игнорирует специфику машинного интеллекта, который может превосходить человеческий в узких задачах (анализ данных), но не обладать «сознанием». Кроме того, наделение понятия человеческими чертами может создать необоснованные ожидания относительно ответственности ИИ (например, попытки признать ИИ «субъектом права»). Можно в целом согласиться с Н. Бостромом, который считает, что «когнитивная архитектура ИИ будет резко отличаться от когнитивной системы человека» (Бостром, 2016: 39).
Фактически нормативное определение искусственного интеллекта должно содержать одновременно и гибкие, и функционально точные формулировки, способные учитывать стремительное развитие сферы, многообразие форм применений и интересы участников.
В конечном счете выбор дефиниции зависит от целей, которые ставятся перед регулированием, что делает задачу выработки единого определения особенно сложной, но принципиально важной.
Законодательное регулирование ИИ: первые шаги . По данным Ассоциации лабораторий по развитию искусственного интеллекта (АЛРИИ), нормативно-правовая база регулирования ИИ состоит из более чем 50 НПА1, включая распоряжения правительства, дорожные карты, указы президента и иные акты. Детальное рассмотрение каждого из них в контексте развития регулирования ИИ является излишним, поскольку до недавнего времени нормативные акты в лучшем случае подготавливали почву или вовсе упоминали ИИ как нечто отдаленное, но перспективное в будущем.
Первые серьезные упоминания об искусственном интеллекте в отечественном праве появились совсем недавно. В 2017 г. вышел проект «Цифровая экономика РФ»2 (утвержден Правительством РФ, распоряжение № 1632-р). Уже тогда ИИ обозначался как одно из ключевых направлений государственной политики в рамках программы «Цифровая экономика». В данном контексте ИИ упоминается наряду с Big Data, нейротехнологиями, компонентами робототехники и иными перспективными направлениями.
ИИ осторожно вводится в стратегическую повестку без попытки его юридической формализации. В проекте он выступает как технологическая категория, связанная с развитием промышленности, государственного управления и научных исследований.
Программа только закрепила намерение государства развивать и внедрять технологии, основанные на искусственном интеллекте, создавая правовую и инфраструктурную среду. Эти положения носили рамочный, декларативный характер. На данном этапе отсутствовали конкретные механизмы правового регулирования ИИ, равно как и его разграничение со смежными понятиями. Таким образом, Проект «Цифровая экономика» отметил появление ИИ в публичной повестке России, но не породил самостоятельного правового статуса.
Вместе с тем такой шаг позволил заложить основу для дальнейших шагов, включая Указ Президента № 490. В хронологическом контексте программа «Цифровая экономика» – переходный этап от упоминаний «в одну строчку» и отсутствия какой-либо регламентации до институци-ализации в правовом поле.
2018 год как раз ознаменовал один из этапов такой институализации ИИ в государственной политике. Несмотря на продолжающееся отсутствие прямого государственного регулирования в этот период, в деятельности ключевых для экономики органов исполнительной власти – Министерства экономического развития и Министерства промышленности и торговли ‒ прослеживается качественный переход от декларативного упоминания ИИ к конкретным шагам по его интеграции в отечественную экономику.
Минэкономразвития приступило к формированию концептуальных основ регулирования искусственного интеллекта (концепция утверждена в 2020 г.)3, предложив двухуровневую модель: общеотраслевую, направленную на формирование условий безопасного и этичного использования ИИ, и отраслевую, фокусирующуюся на применении ИИ в различных сферах – транспорте, медицине, образовании и промышленности. Инициатива носила пред-регулятивный характер и отражала намерение государства создать правовую основу, которая соответствовала бы масштабам и рискам развития ИИ. Параллельно с этим, Минпромторг начал внедрение ИИ и технологий обработки Big Data в управленческую и аналитическую деятельность4.
Таким образом, всего за один год можно увидеть переход от декларирования к первым попыткам формирования правового феномена ИИ. Хотя формально правовой статус все еще отсутствовал, заложенные подходы, принципы и приоритеты создали фундамент для полноценной нормативной базы в 2019 г.
Понятие искусственного интеллекта в отечественном праве . Принятие Указа Президента РФ от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федерации» ознаменовало собой поворотный момент в истории отечественного нормативного регулирования ИИ. Впервые ИИ был не только упомянут, но и получил юридически значимое определение, что закрепило его как самостоятельный объект правового регулирования.
В пункте 5а Национальной стратегии развития искусственного интеллекта до 2030 года (далее – Стратегия) ИИ определяется как «комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их»1. Данное определение, хотя и выглядит вполне гармонично, может вызвать ряд содержательных и прикладных трудностей. С одной стороны, оно может создать практические проблемы для правоприменения, а с другой ‒ отражает концептуально спорные и методологически некорректные представления о природе искусственного интеллекта.
С прикладной стороны можно выделить следующие проблемы.
Во-первых, данная формулировка отличается излишней абстрактностью и оценочным характером. Понятия «имитация когнитивных функций», «результаты, сопоставимые с…», «поиск решений без алгоритма» не имеют четкого правового или технического содержания. Это может привести к неопределенности как в правоприменении, так и в идентификации систем, подпадающих под такое регулирование. Без четких критериев государственные органы, суды и участники оборота будут по-разному интерпретировать, что же именно считать искусственным интеллектом.
Во-вторых, такое определение снижает разграничение между ИИ и иными формами автоматизации. Даже простые алгоритмы машинного обучения при расширительном толковании могут быть включены в сферу регулирования ИИ, что приведет к неоправданной регуляторной нагрузке и сдерживанию технологического развития.
В-третьих, использование антропоморфной риторики: «имитация человеческого интеллекта, когнитивные функции и т. п.» создает трудности для международной гармонизации. Как пример ‒ международные стандарты OECD2 или проект ISO/IEC 22989:20223. Стандарты OECD закрепляют ценностные и институциональные принципы регулирования ИИ, включая прозрачность, подотчетность, безопасность и соблюдение прав человека. Они служат основой для национальных стратегий и законодательных подходов развитых государств. Пункт 3.1.4 стандарта ISO/IEC 22989:2022 предлагает технически нейтральное и операционализируемое определение ИИ как системы, которая «генерирует выходные данные … для достижения заданных человеком целей». В регламенте ЕС об искусственном интеллекте (AI Act 2024)4 положения ISO/IEC используются как основа для определения ИИ-систем и ориентир для их сертификации (прямо в AI Act 2024 об этом не говорится, однако, кроме фактически соответствующего стандартам содержания, в ст. 40 есть ссылка на «harmonised standards»).
С другой стороны, имеются проблемы и с концептуально-научной стороны.
Когнитивные функции человека разнообразны, они включают, в частности, восприятие, память, мышление, обучение, принятие решений и другие процессы. Однако не все технологии ИИ имитируют их полностью. Многие алгоритмы машинного обучения решают узкоспециализированные задачи (например, создание или анализ изображений), но не обладают полноценным когнитивным мышлением, как у человека. Более того, само понятие «имитация» не совсем уместно. ИИ не всегда имитирует мышление человека, а иногда использует совершенно иные математические методы для достижения аналогичных или даже лучших результатов.
В каких именно аспектах сравнивается интеллектуальная деятельность человека и ИИ? В одних задачах (например, распознавание образов5) ИИ уже превосходит человека, в других (абстрактное мышление, творчество) ‒ сильно отстает. Нет четких критериев, что значит «сопоставимые» результаты. Это субъективное выражение, которое может быть интерпретировано по-разному.
Кроме того, такая формулировка понятия предполагает, что искусственный интеллект способен принимать решения без «заранее заданного алгоритма», что некорректно с научной точки зрения. Современные ИИ-системы, включая нейросети, опираются на модели и алгоритмы, пусть и обученные на больших массивах данных. Попытки определить ИИ как алгоритмически неописуемую сущность искажают его техническую природу.
Таким образом, предложенный подход к определению искусственного интеллекта содержит ряд рисков. Для эффективного регулирования этой сферы требуются более четкие, технически обоснованные и функциональные критерии, которые могли бы стать надежной основой для правовых норм.
Текст Стратегии в пункте 5 содержит интересную оговорку: «для целей стратегии используются следующие понятия». Она позволяет сделать вывод о том, что приведенное в документе понятие искусственного интеллекта не претендует на место единственного или универсального. Напротив, оно должно являться практическим ориентиром, который помогает структурировать подходы к регулированию и разработке НПА, затрагивающих сферу ИИ.
Другими словами, это рабочее определение, которое можно дополнять или уточнять, в зависимости от будущих целей или контекста. С одной стороны, такой подход позволяет сохранить гибкость в регулировании и учитывать динамическое развитие сферы ИИ, но с другой ‒ оно все же далеко от идеала, на который можно опереться.
Следующим актом, в котором понятие ИИ должно было получить развитие, является Федеральный закон от 24.04.2020 № 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации – городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона “О персональных данных”»1. В акте (статья 2) ИИ определяется как «комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека»2.
Хотя формулировка не полностью идентична той, что закреплена в Стратегии, она максимально приближена к ней (сохранены почти дословно все проблемные элементы, проанализированные выше). Это может быть как свидетельством того, что отечественный законодатель стремится к унификации терминологии в отсутствие единого понятия, так и некритическим подходом, копированием определения без его глубокого анализа.
В последующем нормативные и нормативно-технические (например, ГОСТ Р 70949-20233) акты нововведений в понятие искусственного интеллекта практически не привнесли.
Выделяется только ГОСТ Р 71476-20244, закрепивший градацию систем искусственного интеллекта в зависимости от степени ее автономности (автономная и специализированная).
Включение подобной градации в текст закона было бы интересным, но противоречивым решением. С одной стороны, градация позволила бы более точно оценивать риски, связанные с применением ИИ, вводить специальное регулирование под разные виды систем, что важно в отраслях с высокими рисками – здравоохранении или общественной безопасности. Кроме того, это позволит снять часть этического вопроса за счет вмешательства человека в деятельность некоторых систем.
Однако, с другой стороны, введение четкой градации несет в себе риск усложнений разработки НПА, поскольку развитие систем ИИ влияет на уровень их автономности. Кроме того, сложным представляется четкое разделение на автономные и неавтономные системы. Как точно определить уровень автономности? Какие параметры будут использоваться для классификации? Это требует разработки четкой и понятной методологии, что может быть трудным и затратным процессом.
В конечном итоге возможным решением может быть более гибкий перечень, например, в статье 6 AI Act 2024 системы ИИ подразделяются в зависимости от риска.
-
– Минимальный риск: например, спам-фильтры или видеоигры с ИИ.
-
– Умеренный риск: системы, влияющие на повседневную жизнь, но не представляющие серьезной угрозы.
-
– Высокий риск: системы, используемые в критически важных сферах, таких как здравоохранение, правосудие, транспорт.
-
– Неприемлемый риск: системы, полностью запрещенные из-за их потенциальной угрозы, например, массовое распознавание лиц в реальном времени.
Такой подход позволяет адаптировать закон к различным уровням автономности и областям применения, что способствует стимулированию инноваций при обеспечении безопасности и соблюдении прав граждан. В настоящее время он реализуется в проекте закона, который рассмотрим далее.
Как говорилось ранее, иные НПА больше не затрагивали определение ИИ. Детальный их обзор выходит за предмет настоящей работы.
На момент написания данной статьи в официальных источниках информации говорится о создании проекта федерального закона «О регулировании систем искусственного интеллекта» (2025). Хотя текста самого законопроекта обнаружить не удалось. По информации, предоставленной разработчиками различным СМИ, проект представляет собой НПА, разработанный в продолжение Национальной стратегии развития ИИ и Указа Президента РФ №490.
Положительным моментом является то, что законопроект представляет собой первую попытку комплексного регулирования сферы ИИ в российском праве. В частности, документ вводит классификацию систем ИИ по уровням риска ‒ от минимального до неприемлемого ‒ и устанавливает дифференцированные правовые режимы для систем с высоким риском: обязательную регистрацию, сертификацию, маркировку и страхование ответственности1.
Авторы документа также предлагают ввести ответственность за нанесение ущерба жизненно важным интересам. Однако в проекте есть оговорки: разработчики и операторы смогут избежать наказания, если докажут, что действовали в полном соответствии с установленными нормами и требованиями2.
Законопроект, однако, вызывает справедливую критику. Основной недостаток ‒ сохранение концептуальных проблем Указа №490, включая расплывчатое определение ИИ, которое механически дублируется без привязки к технологическим стандартам и уровням автономности. Фактически документ пока не решает ключевых вопросов: классификации технологий, распределения ответственности и устранения методологических противоречий, унаследованных от предыдущих нормативных актов.
Выводы . Лучше всего текущее состояние правового регулирования ИИ можно охарактеризовать как находящееся в зачаточном состоянии. Резюмируя проблему, отметим следующее.
-
1. Фрагментарность (разрозненность) законодательных инициатив . Несмотря на наличие экспериментальных правовых режимов и разработку концепций регулирования, можно отметить на текущий момент недостаточную координацию между различными ведомствами и отсутствие комплексного законодательства в этой сфере. Аналогичную позицию, подчеркивающую необходимость системного подхода в правовом регулировании ИИ, высказывают некоторые ученые (Сливицкий А., Сливицкий Б., 2024: 57).
-
2. Антропоморфная риторика . Часто используется терминология, приписывающая ИИ человеческие качества: «принимает решения», «действует», «может быть субъектом права». Это сбивает с толку в юридическом смысле и мешает точному определению ответственности.
-
3. Неопределенность границ применения регулирования . Вследствие общих формулировок и отсутствия ясного определения ИИ невозможно определить:
-
– применимо ли регулирование к системам, основанным на простых алгоритмах или биз-нес-логике;
-
– должны ли разработчики, создающие, например, рекомендательные системы, соблюдать этические принципы и стандарты ИИ;
-
– является ли, например, чат-бот ИИ или просто цифровым интерфейсом.
-
4. Невозможность разработки дифференцированных правовых режимов . Без четкого определения ИИ (и его подтипов) нельзя выстроить профильное регулирование для разных областей применения: медицины, транспорта, обороны, образования и т. д.
Для законодательного регулирования систем искусственного интеллекта необходимо, чтобы понятие ИИ включало в себя ряд ключевых элементов, которые обеспечивали бы технологическую нейтральность, юридическую определенность и применимость к различным правовым режимам.
Во-первых, следует указать на форму реализации ИИ как технологической системы.
Во-вторых, важно отразить функциональные характеристики, включая способность анализировать данные, выявлять закономерности, обучаться, прогнозировать, принимать решения и генерировать информацию.
В-третьих, необходимо зафиксировать наличие автономности, то есть возможность функционировать с различной степенью самостоятельности.
В-четвертых ‒ обработка и интерпретация различных типов данных, включая текст, изображение, звук и видео.
В-пятых – целевая направленность ИИ на выполнение различных задач, автоматизация процессов, поддержка принятия решения и проч.
И наконец – технологическая нейтральность и универсальность применения.
Следуя указанным выше рекомендациям, можно определить ИИ как программно-аппаратную систему, функционирующую с различной степенью автономии и предназначенную для выполнения определенных задач за счет обработки данных, включая текстовую, аудиовизуальную и иную информацию, с применением методов моделирования когнитивных функций человека, в том числе анализа, прогнозирования, классификации, генерации, а также способности к обучению на основе опыта. Искусственный интеллект используется в целях автоматизации процессов и (или) поддержки принятия решений человеком и не обладает признаками субъекта права. Настоящее определение не распространяется на системы, реализующие исключительно алгоритмы с фиксированными правилами и не обладающие способностью к адаптации или обучению.