Влияние искусственного интеллекта на развитие правового регулирования
Автор: Лебедев М.С.
Журнал: Международный журнал гуманитарных и естественных наук @intjournal
Рубрика: Юридические науки
Статья в выпуске: 6-2 (105), 2025 года.
Бесплатный доступ
Статья посвящена описанию текущего состояния правового регулирования использования искусственного интеллекта в России. Определены основные задачи правого регулирования ИИ. Анализируются правовые акты и документы в сфере регулирования ИИ. Описаны этические проблемы, технические ограничения и современные вызовы использования ИИ. Делается вывод о необходимости совершенствования правовых актов, регулирующих использования ИИ в части установления границ и ответственности субъектов права.
Правовое регулирование, искусственный интеллект, цифровизация, цифровая трансформация, информационное право
Короткий адрес: https://sciup.org/170210645
IDR: 170210645 | DOI: 10.24412/2500-1000-2025-6-2-184-188
Текст научной статьи Влияние искусственного интеллекта на развитие правового регулирования
Развитие информационного права требует правовой регламентации использования искусственного интеллекта (ИИ). На данный момент есть ряд ключевых задач правового регулирования в сфере использования ИИ.
Во-первых, требуется совершенствование основ правового регулирования появившихся общественных отношений, которые формируются в рамках информационного права с применением систем искусственного интеллекта. Требуется определить в нормативных правовых актах границы (пределы) использования ИИ и меры государственного принуждения в случае правонарушения. На данный момент можно выделить следующие объективные и субъективно установленные границы использования ИИ:
-
- установление законодательных ограничений в области принятия решений (например, в медицине, запрет принимать решения в нестандартных случаях и при редких заболеваниях);
-
- невозможность быть «творцом», создать принципиально новый продукт интеллектуальной деятельности. Находя нестандартные комбинации, система ИИ может синтезировать уже существующие идеи. ИИ может быть креативным и создавать контент в различных областях (например, визуальное искусство, музыка, литература). Однако «настоящая» креативность остается исключительной чертой человека, который способен вкладывать в контент эмоции, смыслы и контекст. Максимальная возможность системы ИИ в данном
случае - быть источником вдохновения в творческом процессе, который увеличит креативность человека;
-
- неспособность ИИ в полной мере понимать скрытые интонации (например, динамику мимики или общую историю отношений говорящих), они лишь находят паттерны в данных;
-
- отсутствие свободы воли на низком уровне автономности ИИ, так как в таком случае его действия полностью завязаны на логику и данные, заданные людьми. В случае высшего уровня автономности ИИ, согласно теории философа Фрэнка Мартелы, может быть свобода воли. Однако эта концепция остается дискуссионной, так как ИИ-агент является структурой, допускающей направленное действие вне зависимости от воли, мотива или сознания. Поэтому вопрос наличия свободы воли ИИ-агента требует детальной проработки в ходе развития его возможностей;
-
- неспособность ИИ низкого уровня самостоятельности адаптироваться к изменениям реальности без обучающего набора. На высоком уровне самостоятельности такая граница отсутствует: 2024 году российскими учеными была разработана модель Headless-AD, умеющая обучаться новым действиям всего на нескольких примерах. Эта модель может работать с различными типами действий независимо от их количества и комбинации: теми, на которых ее обучали, и теми, с которыми она сталкивается впервые.
Во-вторых, необходимо выявить правовые барьеры, затрудняющие разработку и применение систем ИИ.
В контексте отечественной правовой системы можно выделить ряд правовых взаимосвязанных барьеров, связанных с использованием ИИ:
I. Проблема определения субъекта права в процессе применения ИИ. Это необходимо для определения ответственного лица, к которому будет применена мера взыскания за правонарушения в данной сфере. Согласно ст. 2 ГК РФ, участниками правовых отношений являются только физические и юридические лица, а также публичные образования. Определение ИИ как субъекта права противоречит принципу «правовой определенности», так как используемые такой системой алгоритмы не обладают организационным единством и имущественной обособленностью. В данном случае субъектом права выступает физическое лицо, которое поставило задачу ИИ, а также заложило алгоритм поиска ее решения. Однако и здесь возникает проблема определения ответственного лица в случае саморазви-вающегося ИИ. На данный момент это дискуссионный вопрос, на него нет однозначного ответа. Можно выделить две позиции этому вопросу:
-
1) традиционная – субъектом права являются разработчики программ при условии если ИИ имеет более низкий уровень функциональных возможностей, то есть низкая автономность действий и принятия решений. В таком случае ответственность за действия ИИ возлагается на физическое лицо, то есть на создателей таких программ, так как ИИ может быть орудием совершения преступления, но не субъектом преступления;
-
2) инновационная, в случае признания «электронной личности» в силу полной автономности действий и самостоятельности принятия решений. В таком случае субъектом права будет выступать, и нести ответственность ИИ. Такой подход приведет к юридическому вакууму, когда физическое лицо, принимающее решение о разработке и внедрении систем ИИ будет иметь возможность уйти от юридической ответственности, ссылаясь на самостоятельность и автономность алгоритма. К тому же проблематичным будет взыскание с ИИ, так как у него нет имущества и нет воз-
- можности ограничить его свободу. В данном случае возможно изменение, модификация, форматирование (аналог исправительных работ) или ликвидацию ИИ или связанного с ним программного обеспечения (аналог смертной казни).
-
II. Отсутствие законодательного определения ИИ, критериев и уровней его самостоятельности и автономности, а также установленных на государственном уровне правил взаимодействия с ним. Можно выделяют пять уровней автономности системы ИИ:
-
1) использование ИИ как цифрового инструмента, когда система используется под прямым контролем человека для выполнения стандартных рутинных задач;
-
2) использование ИИ как консультанта, который предоставляет человеку рекомендации и информационную поддержку, но не принимает самостоятельных решений;
-
3) действие ИИ как сотрудника, способного самостоятельно выполнить простые задачи в рамках полностью заданных человеком параметров;
-
4) действие ИИ как эксперта, самостоятельно решающего сложные задачи с незначительным вмешательством человека;
-
5) действия ИИ как агента, который является полностью автономной интеллектуальной системой, действующей независимо от человека и способной принимать решения без необходимости постоянного контроля.
Ключевыми критериями автономности системы ИИ, когда она может действовать самостоятельно и принимать решения без полного или частичного контроля человека, можно выделить:
-
1) степень самодостаточности автономной интеллектуальной системы, которая решает задачи, используя предоставленные ей инструменты, но при этом самостоятельно выбирает, какие из них применять для решения задачи в конкретной ситуации;
-
2) адаптивность ИИ-агента, который способен менять «поведение» (псевдоинтенцию) в зависимости от конкретных условий среды, выбирать подходящие для конкретной задачи инструменты и корректировать план действий в зависимости от полученных им промежуточных результатов;
-
3) способность ИИ-агента к самообучению и саморазвитию, когда анализ прошлых ре-
- шений и данных, с которым он сталкивался, позволяет улучшать производительность алгоритма без вмешательства человека;
-
4) прозрачность и интерпретируемость процесса принятия ИИ-агентом решений. Алгоритмы должны быть не просто эффективными, но и понятными, объяснимыми. Пользователи и регулирующие органы должны понимать, на каких данных и логике основано то или иное решение ИИ-системы. В дальнейшем это позволит смягчить этические риски.
-
III. Наличие этических рисков, вызванных квазисубъектностью ИИ. К таким рискам можно отнести:
-
1) возможность дискриминации и предвзятости, так как массивы данных, на которых обучается ИИ, могут содержать ошибки и предвзятости. В таком случае система начинает усиливать стереотипы;
-
2) проблема обеспечения конфиденциальности данных. В процессе обработки больших объемов информации, например персональные данные, есть риски утечки информации или неправомерного ее использования;
-
3) проблема достоверности данных. Создание ИИ реалистичных фото, видео и аудио, могут быть использованы в целях мошенничества и политических манипуляциях. Проблема борьбы с фейками и дезинформацией является острой политико-правовой проблемой;
-
4) угроза рабочим местам. Замена ИИ людей в профессиях с рутинными и повторяющимися задачами влечет за собой риск сокращения рабочих мест. Аналитики МВФ утверждают, что «ИИ затронет до 40% рабочих мест в мире и ухудшит ситуацию с неравенством» [2]. Такая перспектива требует развития рынка труда, обучения и переобучения большого количества работников;
-
5) неготовность правоприменительных институтов, в частности судебной системы, к искам, связанным с вопросами использования ИИ. На данный момент отсутствуют методики доказывания «вины алгоритма», стандарты аудита ИИ и квалифицированные эксперты, что может привести к произвольному толкованию норм, регулирующих использование ИИ.
В-третьих, следует определить правовые условия и меры, преимущественно стимулирующего характера, направленные на разви- тие применения систем ИИ в различных отраслях экономики и социальной сферы. Ключевым правовым условием развития ИИ, является разработка и принятие необходимых для этого правовых актов. На данный момент в России приняты ряд нормативных правовых актов в сфере использования ИИ:
– Указ Президента РФ от 10.10.2019 №490 «О развитии искусственного интеллекта в Российской Федерации», утвердивший «Национальную стратегию развития искусственного интеллекта на период до 2030 года»;
– Федеральный закон от 31.07.2020 №258-ФЗ «Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации», позволяет вводить экспериментальные правовые режимы для разработки и внедрения систем ИИ в определенных сферах общественной жизни;
– Приказ Росстандарта от 28.10.2024 №1550-ст (ГОСТ Р 71476-2024), определяет терминологию и концепции в области ИИ.
На государственном уровне нет единого правового акта, который бы регулировал использование ИИ в различных сферах общественной жизни, поэтому некоторые проблемные аспекты применения ИИ остаются без четкого правового регулирования. В частности, открытым остается вопрос этики использования ИИ. Принятый в 2021 году на I Международном форуме «Этика искусственного интеллекта: начало доверия» Кодекс этики в сфере искусственного интеллекта (КЭСИИ) не является общеобязательным и носит рекомендательный характер.
Условия и меры, которые требуется реализовать на государственном уровне, должны быть направлены на преодоление барьеров, мешающих применению ИИ. Без этого невозможно обеспечить эффективность правового регулирования использования ИИ различных сферах общественной жизни.
-
IV. Дальнейшее развитие национальной системы стандартизации и оценки соответствия в области технологий ИИ.
Правовое регулирование использования ИИ предполагает создание четких норм и правил, которые помогут избежать злоупотреблений и защитить права граждан и юридических лиц. С 1 января 2025 года в России действуют национальные стандарты, закреп- ленные за техническим комитетом по стандартизации №164 «Искусственный интеллект»:
– ГОСТ Р 71476-2024 «Искусственный интеллект. Концепции и терминология искусственного интеллекта», определяет терминологию и описывает концепции в области ИИ;
– ГОСТ Р 70462.1-2022 «Информационные технологии. Интеллект искусственный. Оценка робастности нейронных сетей. Часть 1. Обзор», дает справочную информацию о способности нейросетей поддерживать качество работы алгоритмов машинного обучения и методах оценки работы ИИ.
– ГОСТ Р 59276–2020 «Системы искусственного интеллекта. Способы обеспечения доверия. Общие положения» рассматривает вопросы обеспечения доверия к системам ИИ со стороны потребителей и организаций, ответственных за их создание и применение;
– ГОСТ Р 59277–2020 «Системы искусственного интеллекта. Классификация систем искусственного интеллекта», устанавливает классификацию систем искусственного интеллекта;
– ГОСТ Р 59278–2020 «Информационная поддержка жизненного цикла изделий. Ин- водства с применением технологий искусственного интеллекта и дополненной реальности. Общие сведения». Национальный стандарт устанавливает общие требования к интерактивным электронным техническим руководствам (ИЭТР) с применением технологий ИИ и дополненной реальности.
В 2023 году в России была зарегистрирована первая система добровольной сертификации (СДС) в области ИИ – «Интеллометри-ка». СДС на основе оценки соответствия алгоритмов ИИ предъявляемым к ним требованиям дает гарантии, что алгоритмы выполняют заявленные функции и могут быть использованы в определенных условиях эксплуатации.
Итак, для достижения оптимального согласования интересов субъектов права необходимо создать правовые условия применения ИИ. Будущее правового регулирования ИИ будет определяться развитием цифровых технологий и изменяющимися потребностями общества. Это потребует совершенствования нормативных правовых актов. Для обеспечения большей безопасности и этичности ИИ требуется установление границ использования данной цифровой технологии и ответ- терактивные электронные технические руко- ственности за их нарушение.