Влияние искусственного интеллекта на развитие правового регулирования
Автор: Лебедев М.С.
Журнал: Международный журнал гуманитарных и естественных наук @intjournal
Рубрика: Юридические науки
Статья в выпуске: 6-2 (105), 2025 года.
Бесплатный доступ
Статья посвящена описанию текущего состояния правового регулирования использования искусственного интеллекта в России. Определены основные задачи правого регулирования ИИ. Анализируются правовые акты и документы в сфере регулирования ИИ. Описаны этические проблемы, технические ограничения и современные вызовы использования ИИ. Делается вывод о необходимости совершенствования правовых актов, регулирующих использования ИИ в части установления границ и ответственности субъектов права.
Правовое регулирование, искусственный интеллект, цифровизация, цифровая трансформация, информационное право
Короткий адрес: https://sciup.org/170210645
IDR: 170210645 | DOI: 10.24412/2500-1000-2025-6-2-184-188
The influence of artificial intelligence on legal regulation
The article is devoted to the description of the current state of legal regulation of the use of artificial intelligence in Russia. The main tasks of legal regulation of AI are defined. The article analyzes legal acts and documents in the field of AI regulation. Ethical issues, technical limitations and modern challenges of using AI are described. A conclusion is made about the need to improve legal acts regulating the use of AI in terms of establishing boundaries and responsibilities of legal entities.
Текст научной статьи Влияние искусственного интеллекта на развитие правового регулирования
Развитие информационного права требует правовой регламентации использования искусственного интеллекта (ИИ). На данный момент есть ряд ключевых задач правового регулирования в сфере использования ИИ.
Во-первых, требуется совершенствование основ правового регулирования появившихся общественных отношений, которые формируются в рамках информационного права с применением систем искусственного интеллекта. Требуется определить в нормативных правовых актах границы (пределы) использования ИИ и меры государственного принуждения в случае правонарушения. На данный момент можно выделить следующие объективные и субъективно установленные границы использования ИИ:
-
- установление законодательных ограничений в области принятия решений (например, в медицине, запрет принимать решения в нестандартных случаях и при редких заболеваниях);
-
- невозможность быть «творцом», создать принципиально новый продукт интеллектуальной деятельности. Находя нестандартные комбинации, система ИИ может синтезировать уже существующие идеи. ИИ может быть креативным и создавать контент в различных областях (например, визуальное искусство, музыка, литература). Однако «настоящая» креативность остается исключительной чертой человека, который способен вкладывать в контент эмоции, смыслы и контекст. Максимальная возможность системы ИИ в данном
случае - быть источником вдохновения в творческом процессе, который увеличит креативность человека;
-
- неспособность ИИ в полной мере понимать скрытые интонации (например, динамику мимики или общую историю отношений говорящих), они лишь находят паттерны в данных;
-
- отсутствие свободы воли на низком уровне автономности ИИ, так как в таком случае его действия полностью завязаны на логику и данные, заданные людьми. В случае высшего уровня автономности ИИ, согласно теории философа Фрэнка Мартелы, может быть свобода воли. Однако эта концепция остается дискуссионной, так как ИИ-агент является структурой, допускающей направленное действие вне зависимости от воли, мотива или сознания. Поэтому вопрос наличия свободы воли ИИ-агента требует детальной проработки в ходе развития его возможностей;
-
- неспособность ИИ низкого уровня самостоятельности адаптироваться к изменениям реальности без обучающего набора. На высоком уровне самостоятельности такая граница отсутствует: 2024 году российскими учеными была разработана модель Headless-AD, умеющая обучаться новым действиям всего на нескольких примерах. Эта модель может работать с различными типами действий независимо от их количества и комбинации: теми, на которых ее обучали, и теми, с которыми она сталкивается впервые.
Во-вторых, необходимо выявить правовые барьеры, затрудняющие разработку и применение систем ИИ.
В контексте отечественной правовой системы можно выделить ряд правовых взаимосвязанных барьеров, связанных с использованием ИИ:
I. Проблема определения субъекта права в процессе применения ИИ. Это необходимо для определения ответственного лица, к которому будет применена мера взыскания за правонарушения в данной сфере. Согласно ст. 2 ГК РФ, участниками правовых отношений являются только физические и юридические лица, а также публичные образования. Определение ИИ как субъекта права противоречит принципу «правовой определенности», так как используемые такой системой алгоритмы не обладают организационным единством и имущественной обособленностью. В данном случае субъектом права выступает физическое лицо, которое поставило задачу ИИ, а также заложило алгоритм поиска ее решения. Однако и здесь возникает проблема определения ответственного лица в случае саморазви-вающегося ИИ. На данный момент это дискуссионный вопрос, на него нет однозначного ответа. Можно выделить две позиции этому вопросу:
-
1) традиционная – субъектом права являются разработчики программ при условии если ИИ имеет более низкий уровень функциональных возможностей, то есть низкая автономность действий и принятия решений. В таком случае ответственность за действия ИИ возлагается на физическое лицо, то есть на создателей таких программ, так как ИИ может быть орудием совершения преступления, но не субъектом преступления;
-
2) инновационная, в случае признания «электронной личности» в силу полной автономности действий и самостоятельности принятия решений. В таком случае субъектом права будет выступать, и нести ответственность ИИ. Такой подход приведет к юридическому вакууму, когда физическое лицо, принимающее решение о разработке и внедрении систем ИИ будет иметь возможность уйти от юридической ответственности, ссылаясь на самостоятельность и автономность алгоритма. К тому же проблематичным будет взыскание с ИИ, так как у него нет имущества и нет воз-
- можности ограничить его свободу. В данном случае возможно изменение, модификация, форматирование (аналог исправительных работ) или ликвидацию ИИ или связанного с ним программного обеспечения (аналог смертной казни).
-
II. Отсутствие законодательного определения ИИ, критериев и уровней его самостоятельности и автономности, а также установленных на государственном уровне правил взаимодействия с ним. Можно выделяют пять уровней автономности системы ИИ:
-
1) использование ИИ как цифрового инструмента, когда система используется под прямым контролем человека для выполнения стандартных рутинных задач;
-
2) использование ИИ как консультанта, который предоставляет человеку рекомендации и информационную поддержку, но не принимает самостоятельных решений;
-
3) действие ИИ как сотрудника, способного самостоятельно выполнить простые задачи в рамках полностью заданных человеком параметров;
-
4) действие ИИ как эксперта, самостоятельно решающего сложные задачи с незначительным вмешательством человека;
-
5) действия ИИ как агента, который является полностью автономной интеллектуальной системой, действующей независимо от человека и способной принимать решения без необходимости постоянного контроля.
Ключевыми критериями автономности системы ИИ, когда она может действовать самостоятельно и принимать решения без полного или частичного контроля человека, можно выделить:
-
1) степень самодостаточности автономной интеллектуальной системы, которая решает задачи, используя предоставленные ей инструменты, но при этом самостоятельно выбирает, какие из них применять для решения задачи в конкретной ситуации;
-
2) адаптивность ИИ-агента, который способен менять «поведение» (псевдоинтенцию) в зависимости от конкретных условий среды, выбирать подходящие для конкретной задачи инструменты и корректировать план действий в зависимости от полученных им промежуточных результатов;
-
3) способность ИИ-агента к самообучению и саморазвитию, когда анализ прошлых ре-
- шений и данных, с которым он сталкивался, позволяет улучшать производительность алгоритма без вмешательства человека;
-
4) прозрачность и интерпретируемость процесса принятия ИИ-агентом решений. Алгоритмы должны быть не просто эффективными, но и понятными, объяснимыми. Пользователи и регулирующие органы должны понимать, на каких данных и логике основано то или иное решение ИИ-системы. В дальнейшем это позволит смягчить этические риски.
-
III. Наличие этических рисков, вызванных квазисубъектностью ИИ. К таким рискам можно отнести:
-
1) возможность дискриминации и предвзятости, так как массивы данных, на которых обучается ИИ, могут содержать ошибки и предвзятости. В таком случае система начинает усиливать стереотипы;
-
2) проблема обеспечения конфиденциальности данных. В процессе обработки больших объемов информации, например персональные данные, есть риски утечки информации или неправомерного ее использования;
-
3) проблема достоверности данных. Создание ИИ реалистичных фото, видео и аудио, могут быть использованы в целях мошенничества и политических манипуляциях. Проблема борьбы с фейками и дезинформацией является острой политико-правовой проблемой;
-
4) угроза рабочим местам. Замена ИИ людей в профессиях с рутинными и повторяющимися задачами влечет за собой риск сокращения рабочих мест. Аналитики МВФ утверждают, что «ИИ затронет до 40% рабочих мест в мире и ухудшит ситуацию с неравенством» [2]. Такая перспектива требует развития рынка труда, обучения и переобучения большого количества работников;
-
5) неготовность правоприменительных институтов, в частности судебной системы, к искам, связанным с вопросами использования ИИ. На данный момент отсутствуют методики доказывания «вины алгоритма», стандарты аудита ИИ и квалифицированные эксперты, что может привести к произвольному толкованию норм, регулирующих использование ИИ.
В-третьих, следует определить правовые условия и меры, преимущественно стимулирующего характера, направленные на разви- тие применения систем ИИ в различных отраслях экономики и социальной сферы. Ключевым правовым условием развития ИИ, является разработка и принятие необходимых для этого правовых актов. На данный момент в России приняты ряд нормативных правовых актов в сфере использования ИИ:
– Указ Президента РФ от 10.10.2019 №490 «О развитии искусственного интеллекта в Российской Федерации», утвердивший «Национальную стратегию развития искусственного интеллекта на период до 2030 года»;
– Федеральный закон от 31.07.2020 №258-ФЗ «Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации», позволяет вводить экспериментальные правовые режимы для разработки и внедрения систем ИИ в определенных сферах общественной жизни;
– Приказ Росстандарта от 28.10.2024 №1550-ст (ГОСТ Р 71476-2024), определяет терминологию и концепции в области ИИ.
На государственном уровне нет единого правового акта, который бы регулировал использование ИИ в различных сферах общественной жизни, поэтому некоторые проблемные аспекты применения ИИ остаются без четкого правового регулирования. В частности, открытым остается вопрос этики использования ИИ. Принятый в 2021 году на I Международном форуме «Этика искусственного интеллекта: начало доверия» Кодекс этики в сфере искусственного интеллекта (КЭСИИ) не является общеобязательным и носит рекомендательный характер.
Условия и меры, которые требуется реализовать на государственном уровне, должны быть направлены на преодоление барьеров, мешающих применению ИИ. Без этого невозможно обеспечить эффективность правового регулирования использования ИИ различных сферах общественной жизни.
-
IV. Дальнейшее развитие национальной системы стандартизации и оценки соответствия в области технологий ИИ.
Правовое регулирование использования ИИ предполагает создание четких норм и правил, которые помогут избежать злоупотреблений и защитить права граждан и юридических лиц. С 1 января 2025 года в России действуют национальные стандарты, закреп- ленные за техническим комитетом по стандартизации №164 «Искусственный интеллект»:
– ГОСТ Р 71476-2024 «Искусственный интеллект. Концепции и терминология искусственного интеллекта», определяет терминологию и описывает концепции в области ИИ;
– ГОСТ Р 70462.1-2022 «Информационные технологии. Интеллект искусственный. Оценка робастности нейронных сетей. Часть 1. Обзор», дает справочную информацию о способности нейросетей поддерживать качество работы алгоритмов машинного обучения и методах оценки работы ИИ.
– ГОСТ Р 59276–2020 «Системы искусственного интеллекта. Способы обеспечения доверия. Общие положения» рассматривает вопросы обеспечения доверия к системам ИИ со стороны потребителей и организаций, ответственных за их создание и применение;
– ГОСТ Р 59277–2020 «Системы искусственного интеллекта. Классификация систем искусственного интеллекта», устанавливает классификацию систем искусственного интеллекта;
– ГОСТ Р 59278–2020 «Информационная поддержка жизненного цикла изделий. Ин- водства с применением технологий искусственного интеллекта и дополненной реальности. Общие сведения». Национальный стандарт устанавливает общие требования к интерактивным электронным техническим руководствам (ИЭТР) с применением технологий ИИ и дополненной реальности.
В 2023 году в России была зарегистрирована первая система добровольной сертификации (СДС) в области ИИ – «Интеллометри-ка». СДС на основе оценки соответствия алгоритмов ИИ предъявляемым к ним требованиям дает гарантии, что алгоритмы выполняют заявленные функции и могут быть использованы в определенных условиях эксплуатации.
Итак, для достижения оптимального согласования интересов субъектов права необходимо создать правовые условия применения ИИ. Будущее правового регулирования ИИ будет определяться развитием цифровых технологий и изменяющимися потребностями общества. Это потребует совершенствования нормативных правовых актов. Для обеспечения большей безопасности и этичности ИИ требуется установление границ использования данной цифровой технологии и ответ- терактивные электронные технические руко- ственности за их нарушение.