Нормативно-правовое интерпретирование систем на основе «искусственного интеллекта» и нейронных сетей (международные аспекты)
Автор: Егоров Г.Г., Севостьянов М.В., Шубенкова К.В.
Журнал: Legal Concept @legal-concept
Рубрика: Цифровая трансформация правового регулирования
Статья в выпуске: 1 т.24, 2025 года.
Бесплатный доступ
Введение: в статье исследуется актуальная тема международного правового регулирования, особый акцент ставится на стремительно развивающихся сферах искусственного интеллекта (ИИ) и нейронных сетей. Анализ многочисленных документов, подготовленных авторитетными международными организациями, такими как Организация Объединенных Наций, Организация экономического сотрудничества и развития, а также «Большая семерка» (G7) и «Большая двадцатка» (G20), позволяет получить исчерпывающую картину современного состояния правового ландшафта в этой области. Кроме того, в работе представлен обзор научных точек зрения ведущих специалистов в области права, что позволяет оценить различные теоретические подходы к проблеме правового регулирования ИИ. В результате проведенного исследования были выявлены ключевые принципы, которыми руководствуются государства при формировании своей национальной правовой базы в сфере ИИ. Основными проблемами при этом определяются отсутствие унифицированных подходов к регулированию ИИ, влекущих за собой правовую неопределенность и потенциальные конфликты юрисдикций. Цель работы – анализ современного состояния нормативно-правового ландшафта, выявление ключевых принципов национального законодательства и оценка перспектив международного сотрудничества. Методологическая база работы включает: сравнительно-правовой анализ международных актов; системное изучение взаимодействия правовых режимов; нормативно-догматическую интерпретацию терминологии; контент-анализ экспертных позиций; правовое моделирование перспектив гармонизации законодательства. Применение междисциплинарного синтеза, объединяющего юридические, технические и этические аспекты, обеспечило комплексность результатов исследования. Основные выводы подчеркивают необходимость гармонизации регулирования ИИ на глобальном уровне, включая уточнение ключевых понятий и терминов для обеспечения единообразного применения правовых норм. Проведенный анализ вносит вклад в научный дискурс и может быть полезен разработчикам государственной политики, стремящимся создать сбалансированную правовую среду для развития технологий ИИ.
Цифровой искусственный интеллект, нейронные сети, российское законодательство в сфере цифровых отношений, цифровое право, международная цифровизация
Короткий адрес: https://sciup.org/149148171
IDR: 149148171 | DOI: 10.15688/lc.jvolsu.2025.1.9
Текст научной статьи Нормативно-правовое интерпретирование систем на основе «искусственного интеллекта» и нейронных сетей (международные аспекты)
DOI:
Искусственный интеллект (ИИ) стремительно проникает в повседневную жизнь, трансформируя не только бытовые процессы, но и сферу государственного управления. Активное внедрение технологий на его базе в деятельность государственных органов требует разработки четких и согласованных подходов к ключевым понятиям и определениям в этой области [14]. Создание эффективной системы международно-правового регулирования, а также разработка и принятие соответствующего национального законодательства являются первоочередными задачами для современных государств. Данные меры позволят обеспечить безопасное и этичное развитие цифровых технологий, минимизировать риски и максимизировать потенциал их применения в интересах общества.
Потребность в международно-правовом регулировании неизбежно возникает во всех сферах человеческой деятельности, поскольку установление единых норм на глобальном уровне способствует созданию стабильной и предсказуемой среды для взаимодействия различных субъектов международных отношений. Подобная регламентация выступает своеобразным компасом, ориентирующим государства в процессе разработки национального законодательства. В современном мире технологии на основе ИИ и нейронных сетей (НС) прочно вошли в нашу повседневную жизнь, находя широкое применение как в личных целях, так и в профессиональной деятельности организаций и государственных структур [14]. Использование таких систем позволяет существенно упростить и оптимизировать множество процессов, повышая их эффективность.
Несмотря на возрастающий интерес к ИИ и их активное внедрение в различные сферы общественной жизни, вопрос о создании надежной правовой основы для функционирования этих систем остается открытым, особенно в контексте международного права. Каждое государство, разрабатывая и принимая нормативные акты, регулирующие деятельность в данной области, руководствуется собственными национальными интересами и приоритетами, что может привести к существенным различиям в подходах к решению данной проблемы. В результате возникает необходимость в выработке единых международных стандартов, которые позволили бы обеспечить согласованность национального законодательства и создать благоприятные условия для развития технологий на основе ИИ на глобальном уровне [7].
В контексте Российской Федерации приоритетным направлением развития становится достижение технологической независимости и самодостаточности в данной цифровой сфере. Отмеченное и позволит обеспечить прорыв в различных областях экономики и социальной сферы, что, в свою очередь, будет способствовать повышению качества жизни граждан и укреплению позиций страны на мировой арене. Важность данной задачи была подчеркнута Президентом Российской Федерации в Послании Федеральному Собранию 29 февраля 2024 года [8]. Согласно это- му документу развитие систем на основе ИИ является одним из ключевых факторов, определяющих будущее России.
Основная часть
Необходимость международного правового регулирования в сфере цифровых искусственно-интеллектуальных систем (ЦИИС) трудно переоценить. В условиях стремительного развития технологий и их все более глубокой интеграции в различные аспекты человеческой жизни, отсутствие согласованных международных норм и стандартов может привести к непредсказуемым последствиям. В случае если государства будут действовать разрозненно, не координируя свои усилия и политику в этой области, то искусственный интеллект, изначально задуманный как инструмент для улучшения качества жизни, может превратиться в серьезную угрозу как для национальной безопасности отдельных стран, так и для стабильности международных отношений в целом. Отсутствие единых правил игры может способствовать возникновению неравенства, дискриминации, а также созданию новых видов оружия и других угроз, которые трудно будет контролировать и предотвращать. Именно поэтому международное сотрудничество в сфере регулирования ИИ является одним из важнейших вызовов современности.
В рамках современной правовой системы России уже сформированы определенные подходы к понятию ИИ. Основные принципы, касающиеся интеллектуальной собственности и защиты информации, нашли свое отражение в фундаментальном законе страны – Конституции Российской Федерации, а также в специализированных федеральных законах, таких как закон «Об информации, информационных технологиях и о защите информации» и закон «Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации». Эти нормативные акты создают правовую основу для развития систем на основе ИИ в России, определяя права и обязанности участников отношений, возникающих в этой сфере. При этом следует отметить, что процесс совершенствования законодательства в области искусственного интеллекта является динамичным и требует посто- янного обновления в связи с быстро меняющимися технологическими реалиями [7].
В стране понятие «искусственный интеллект» получило официальное определение на высшем уровне. Национальная стратегия развития искусственного интеллекта, утвержденная Указом Президента Российской Федерации, предоставляет исчерпывающее толкование этого термина. Согласно данному документу искусственный интеллект представляет собой совокупность решений, которые позволяют машинам имитировать когнитивные функции человека, такие как способность к обучению, принятию решений и решению задач. При этом ключевым отличительным признаком ИИ является возможность получения результатов, сравнимых или превосходящих результаты, достигаемые человеком при выполнении аналогичных задач. Национальная стратегия закрепляет четкое понимание ИИ как передовой технологии, способной революционизировать различные сферы человеческой деятельности [1].
В рамках данного определения ИИ подразумевается широкий спектр технологических компонентов, объединенных в единую систему. К ним относятся информационно-коммуникационная инфраструктура, обеспечивающая сбор, хранение и передачу данных, программное обеспечение, реализующее алгоритмы машинного обучения и другие интеллектуальные функции, а также процессы и сервисы, направленные на обработку данных и поиск оптимальных решений. Важно отметить, что в рассматриваемом документе отсутствует отдельное определение понятия «нейронные сети», хотя они являются одним из ключевых элементов многих ЦИИС. Тем не менее данное определение охватывает широкий спектр достижений, используемых для создания интеллектуальных систем, способных выполнять задачи, ранее считавшиеся исключительно прерогативой человека.
Понятие «искусственный интеллект» охватывает куда более широкий спектр технологий и подходов, нежели понятие «нейронная сеть». НС, являясь одним из ключевых направлений в арсенале ИИ, представляет собой математическую модель, вдохновленную структурой и функционированием биологических НС. Как отмечают исследователи, программная и аппаратная реализация таких сетей основана на имитации принципов работы нейронов в живых организмах [3], где искусственные нейроны выполняют функции, аналогичные функциям биологических нейронов. Можно сделать вывод, что НС является лишь одним из инструментов, используемых для создания систем искусственного интеллекта, обладающих определенными когнитивными функциями.
Вопрос о правовом статусе ЦИИС является одним из наиболее актуальных в современной юридической науке. При обсуждении этой проблемы часто возникает дилемма: рассматривать ИИ как объект правовых отношений, подобно имуществу, или как субъект, наделенный определенными правами и обязанностями. Большинство исследователей склоняются к первой точке зрения, аргументируя это тем, что существующие ЦИИС, несмотря на свою сложность, не обладают подлинным интеллектом и сознанием. Они способны выполнять лишь те задачи, которые были заложены в них разработчиками, следуя заранее определенным алгоритмам. ИИ имитирует когнитивные функции человека, но не способен к самостоятельному творчеству и генерации новых идей, что является фундаментальным отличием от человеческого разума [2]. Таким образом, ЦИИС, будучи сложными техническими устройствами, не обладают теми качествами, которые позволяют отнести их к субъектам права.
В эпоху стремительного технологического прогресса государства, активно взаимодействуя в рамках международных организаций и других многосторонних форумов, все отчетливее осознают необходимость создания всеобъемлющей правовой базы, регулирующей ИИ и НС в различных сферах человеческой деятельности. Глобальный характер развития этих систем требует согласованных действий на международном уровне, направленных на выработку единых подходов к решению возникающих правовых проблем. Подобная координация усилий позволит обеспечить безопасное и эффективное использование искусственного интеллекта во благо всего человечества, минимизируя потенциальные риски.
Как правило, результатом такого сотрудничества выступают разнообразные соглаше- ния в сфере использования ИИ. В таких документах содержится четкое утверждение о том, что ЦИИС должны быть созданы и использованы таким образом, чтобы приносить пользу всему человечеству. Разработчики соглашений подчеркивают необходимость разработки и внедрения ЦИИС, которые будут безопасными и надежными. Кроме того, в документах представлено комплексное видение потенциала и вызовов, связанных с использованием генеративного искусственного интеллекта (ГИИ) – технологии, способной создавать новые виды данных, такие как тексты, изображения и музыка, на основе существующих образцов. В документах не только провозглашаются общие принципы этичного использования ЦИИС, но и обращается внимание на конкретные технологические направления, требующие особого внимания и регулирования.
Внедрение ИИ и НС сопряжено с рядом существенных рисков, затрагивающих фундаментальные права человека, вопросы контроля и подотчетности за их деятельностью. Особую озабоченность вызывает возможность манипулирования информацией и дезинформации пользователей, что может иметь серьезные социальные и политические последствия. Кроме того, необходимо уделить пристальное внимание соблюдению этических норм при разработке и применении данных достижений, а также решению проблем, связанных с предвзятостью алгоритмов, защитой конфиденциальности персональных данных и прав интеллектуальной собственности.
Одной из наиболее актуальных проблем в современном правовом регулировании ИИ является необходимость устранения правовых пробелов, особенно в области защиты интеллектуальной собственности. С ростом популярности цифровых инноваций, а в особенности НС, все чаще возникают судебные споры, связанные с нарушением исключительных прав на результаты интеллектуальной деятельности. Характерным примером такой ситуации является недавний судебный процесс, рассмотренный в США [1].
Увеличение числа подобных дел свидетельствует о том, что существующая правовая система не всегда способна адекватно реагировать на вызовы, связанные с исполь- зованием ИИ в творческих процессах. Традиционные нормы интеллектуальной собственности, разработанные для регулирования отношений, возникающих при создании традиционных произведений, не всегда применимы к результатам, полученным с помощью алгоритмов машинного обучения. Это связано с тем, что авторство таких произведений часто бывает размытым, а процесс их создания может включать в себя использование больших объемов данных, права на которые принадлежат различным лицам.
В этой связи возникает необходимость в разработке новых правовых механизмов, которые позволят эффективно защищать права авторов и других правообладателей в условиях цифровой экономики, при этом не препятствуя развитию инноваций.
В начале 2023 г. более шестнадцати тысяч художников объединились в коллективном иске против создателей нейросети Midjourney, специализирующейся на генерации изображений [10]. Однако часть исковых требований была отклонена судом. Причиной отказа стало отсутствие у некоторых художников официальной регистрации авторских прав на свои произведения, что затруднило доказывание факта нарушения. Кроме того, истцам не всегда удавалось предоставить убедительные доказательства того, что сгенерированные нейросетью изображения действительно являются плагиатом их работ.
Анализируя современную судебную практику Российской Федерации, можно наблюдать устойчивую тенденцию к увеличению числа судебных разбирательств, предметом которых являются правоотношения, так или иначе связанные с применением технологий ЦИИС. За последние несколько лет количество таких дел существенно выросло. Если в период с 2022 по 2023 г. суды рассмотрели 165 дел, то уже за следующий год их число увеличилось более чем в два раза и достигло 406 [5].
Спектр споров, возникающих в связи с использованием ИИ, весьма широк. Суды рассматривают дела, связанные с разработкой программного обеспечения на основе ЦИИС, споры по лицензионным договорам на использование такого программного обеспечения, а также дела о нарушении авторских прав на произведения, созданные с помощью ИИ.
Кроме того, все чаще встречаются административные дела, связанные с нарушением законодательства при использовании ЦИИС для массовых рассылок или звонков.
В свете стремительного развития ИИ и многочисленных правовых вопросов, возникающих в связи с их применением, все более актуальным становится вопрос о необходимости создания международно-правовой базы, которая бы обеспечивала этичное их использование. Осознавая важность этой задачи, ЮНЕСКО, специализированное учреждение Организации Объединенных Наций, ответственное за вопросы образования, науки и культуры, приняла в ноябре 2021 г. на своей 41-й сессии Генеральной конференции Рекомендации об этических аспектах искусственного интеллекта [15]. Документ представляет собой попытку международного сообщества выработать единый подход к регулированию этой сферы, с учетом как потенциала ИИ для развития человечества, так и связанных с ним рисков.
Примечательным событием в области ИИ в 2019 г. стало принятие Заявления министров экономики стран Группы двадцати (G20). Эта международная организация, объединяющая крупнейшие экономики мира, включая Россию, 9 июня того же года одобрила принципы развития ИИ. Принятие такого рода заявлений на высоком уровне свидетельствует о растущем международном признании важности этических аспектов развития и применения ИИ, а также о необходимости выработки единых подходов к их регулированию [13]. Это решение стало еще одним шагом на пути к формированию глобальной нормативной базы в сфере ИИ.
Заявление министров экономики стран G20 не ограничивается лишь повторением уже известных принципов, но и содержит ряд новых, весьма актуальных положений. В частности, документ подчеркивает необходимость придерживаться антропоцентрического подхода в развитии искусственного интеллекта, то есть учитывать интересы человека и общества при создании и использовании технологий на основе генеративного интеллекта [14]. Особое внимание уделяется потенциальным социальным рискам, связанным с развитием искусственного интеллекта, в том числе рис- ку изменения рынка труда. Авторы Заявления также акцентируют важность обеспечения конфиденциальности и защиты персональных данных при использовании технологий, базирующихся на ЦИИС. Кроме того, в документе содержится призыв к активному обмену опытом между странами в области разработки и использования ИИ. Эти и другие положения свидетельствуют о том, что государства, входящие в G20, осознают всю сложность и многогранность проблем, связанных с развитием искусственного интеллекта, и стремятся к выработке согласованных подходов к их решению [13].
Страны, входящие в «Группу семи» (G7), подчеркнули, что как Соглашение о международных руководящих принципах ИИ, так и Добровольный кодекс поведения разработчиков ИИ являются живыми документами, подлежащими периодическому пересмотру и обновлению. Этот процесс будет осуществляться, в частности, в рамках деятельности Глобального партнерства по ИИ (GPAI), международной инициативы, официально запущенной в июне 2020 года. Что касается непосредственно Соглашения о принципах, то оно включает в себя одиннадцать ключевых положений, которые представляют собой логическое развитие Руководящих принципов ОЭСР, принятых ранее. Данный подход свидетельствует о стремлении международного сообщества к постепенному формированию единой нормативной базы в цифровой сфере, которая будет учитывать как динамичное развитие технологий, так и возникающие в связи с этим новые вызовы и риски.
Соглашение о международных руководящих принципах искусственного интеллекта, принятое в рамках G7, содержит ряд конкретных мер, направленных на обеспечение безопасности и этичности использования ЦИИС [1].
В то же время кодекс поведения разработчиков ИИ подчеркивает, что государства сохраняют за собой право самостоятельно определять конкретные механизмы реализации этих принципов в рамках своего национального законодательства. Такой подход отражает стремление к балансу между необходимостью глобальной координации усилий в области регулирования ИИ и уважением суверенитета отдельных государств.
В качестве фундаментальной основы для регулирования сферы ИИ на территории Европейского союза выступает Закон об искусственном интеллекте (Artificial Intelligence Act). В акте, после длительного процесса обсуждения и согласования, был окончательно утвержден Советом Евросоюза 21 мая 2024 года. Об этом официально сообщается на сайте организации. Необходимо отметить, что вступление Закона в полную силу ожидается через два года после его публикации, однако отдельные положения документа начнут действовать гораздо раньше [12]. Данный поэтапный подход позволяет государствам – членам Европейского союза постепенно адаптироваться к новым требованиям и обеспечить плавный переход к новой системе регулирования в сфере искусственного интеллекта. Принятие Закона является значимым событием, которое окажет существенное влияние на развитие этой технологии в Европе и за ее пределами.
Ключевыми принципами, положенными в основу Закона об ИИ, являются обеспечение безопасности использования таких систем, прозрачность их функционирования, возможность отслеживания их действий, минимизация негативного экологического воздействия и предотвращение дискриминации. Закон классифицирует системы с ИИ на четыре категории в зависимости от уровня риска, который они несут: системы с ограниченным риском, системы с неприемлемым риском, системы высокого риска и системы, генерирующие контент (например, нейросети). Особое внимание уделяется системам с неприемлемым риском, к которым относятся системы, способные манипулировать людьми, особенно представителями уязвимых групп населения, такими как дети и пожилые люди. Также запрещается использование ЦИИС для ранжирования или классификации граждан на основе анализа их данных, а также для биометрической идентификации лиц в режиме реального времени в общественных местах [4].
Закон об ИИ Европейского союза выделяет системы высокого риска в отдельную категорию, подлежащую особому регулированию. К этой категории относятся, например, беспилотные транспортные средства и медицинские устройства, использование которых может непосредственно угрожать здоровью и жизни людей, а также нарушать их права. Для таких систем предусмотрены строгие требования по оценке рисков, разработке мер по их минимизации и обеспечению безопасности.
Отдельное внимание в Законе уделяется генеративным системам ИИ, к которым относятся, например, чат-боты на основе больших языковых моделей, подобные ChatGPT. Для таких систем устанавливаются жесткие требования в отношении соблюдения авторского права и раскрытия информации о данных, которые использовались для их обучения. Целью этих требований является обеспечение прозрачности работы генеративных систем и предотвращение распространения дезинформации и других видов злоупотреблений.
Действующие ЦИИС получат трехлетний переходный период, в течение которого они смогут адаптироваться к новым требованиям, установленным Законом. Эффективность практического применения положений этого нормативного акта в странах Европейского союза пока остается под вопросом. Однако сам факт принятия Закона об ИИ является беспрецедентным событием, свидетельствующим о стремлении Европейского союза занять лидирующие позиции в области регулирования этой перспективной, но вместе с тем и потенциально опасной технологии. Реализация положений Закона позволит создать более безопасную и этичную среду для развития и применения искусственного интеллекта, что, в свою очередь, будет способствовать укреплению доверия общественности к ней.
Создание надежной правовой базы для развития таких систем является одним из приоритетных направлений деятельности Европейского союза. Это объясняется тем, что ИИ играет ключевую роль в достижении долгосрочных целей цифровой трансформации экономики и общества. Так, в программе развития до 2030 г. «Путь к цифровому долголетию» поставлена амбициозная цель: к 2030 г. 75 % всех европейских компаний должны регулярно использовать ЦИТ в своей деятельности [12]. Этот показатель подчеркивает важность таких систем для обеспечения конкурентоспособности европейской экономики и повышения качества жизни граждан. Кроме того, стоит отметить, что Европейский союз принял ряд других документов, посвященных вопросам регулирования ИИ. Эти документы дополняют друг друга и создают комплексный подход к развитию данной технологии.
Важным этапом на пути к формированию единого правового поля для искусственного интеллекта в Европейском союзе стало подписание Декларации о сотрудничестве в области искусственного интеллекта 10 апреля 2018 года [11]. Документ отражает стремление государств-членов к созданию комплексной и согласованной стратегии развития ИИ на европейском уровне. Декларация провозгласила намерение государств разработать единый европейский подход к регулированию ИИ и координировать свою национальную политику в этой сфере. Подписание Декларации стало отправной точкой для дальнейшей работы над созданием всеобъемлющего законодательства, регулирующего различные аспекты применения ЦИИС, от разработки и производства систем до их использования в различных сферах общественной жизни.
В 2020 г. Европейская комиссия представила документ, получивший название «Белая книга искусственного интеллекта». Этот документ стал важным этапом в формировании европейской стратегии в сфере искусственного интеллекта. Целью книги является создание всеобъемлющей системы правил и требований, направленных на обеспечение безопасного и надежного развития технологий ИИ при одновременном соблюдении основополагающих европейских ценностей и прав человека [13]. Таким образом, «Белая книга» представляет собой комплексный подход к регулированию ИИ, который учитывает как его огромный потенциал для развития экономики и общества, так и связанные с ним риски. Этот документ заложил основу для дальнейшей разработки законодательной базы в данной области на уровне Европейского союза.
Российский исследователь Д.Л. Кутейников характеризует европейский подход к регулированию ИИ как риск-ориентирован-ный [6]. То есть такие системы классифицируются в зависимости от степени потенциальной угрозы, которую они могут представлять для здоровья, безопасности и основных прав человека.
Важность международного сотрудничества в сфере регулирования ЦИИС и обеспечения безопасности их применения подчеркивается и в обновленной российской Стратегии развития искусственного интеллекта до 2030 г., утвержденной Указом Президента Российской Федерации в 2019 году [9]. Последняя редакция этого стратегического документа, вступившая в силу 15 февраля 2024 г., фиксирует существенные достижения России в данной сфере, устанавливает новые целевые показатели развития и предлагает конкретные меры по обеспечению безопасности использования ИИ с учетом опыта других стран и международных организаций, таких как Китай, Европейский союз и др. Таким образом, Россия демонстрирует готовность активно участвовать в глобальном диалоге по вопросам регулирования искусственного интеллекта и создания безопасной среды для его развития.
Анализируя представленные правовые документы, регулирующие сферу ИИ и НС, можно сделать следующие выводы. Во-первых, эти документы отражают текущее состояние статуса ИИ, его правового потенциала и перспектив дальнейшего совершенствования. Авторы этих документов стремятся заглянуть в будущее и предвидеть возможные изменения, которые могут произойти в результате широкого внедрения таких систем в различные сферы человеческой деятельности. Во-вторых, в этих документах подробно рассматриваются потенциальные риски и проблемы, связанные с использованием данных инноваций. Авторы акцентируют внимание на необходимости разработки эффективных механизмов управления этими рисками и минимизации негативных последствий, которые могут возникнуть в результате неконтролируемого развития ИИ. Таким образом, представленные документы являются попыткой сформулировать комплексный подход к регулированию комплексов, который позволит, с одной стороны, стимулировать инновации и развитие новых систем, а с другой – обеспечить безопасность и надежность их применения.
Заключение
Рассматривая возможные пути развития правового регулирования ЦИИС, следует об- ратить особое внимание на несколько ключевых аспектов. Во-первых, необходимо более четко определить понятийный аппарат, используемый в этой области. Точное и однозначное толкование терминов, связанных с ИИ, является основополагающим условием для создания эффективной правовой системы. Во-вторых, актуальным остается вопрос о юридическом статусе ЦИИС. Следует четко закрепить пределы прав, которые имеет ИИ как субъект, если все же будет за ним закреплен данный статус. В-третьих, необходимо достичь баланса интересов различных участников отношений, связанных с использованием ЦИИС. С одной стороны, необходимо создать условия для развития инноваций и стимулирования деятельности разработчиков. С другой стороны, необходимо защитить права потребителей и обеспечить безопасность его использования. Наконец, государственные органы должны играть активную роль в формировании правовой среды в данной сфере, устанавливая четкие правила и обеспечивая их соблюдение. Решение этих задач позволит создать гибкую и эффективную систему правового регулирования, способную адаптироваться к быстро меняющимся технологическим реалиям.
Особого внимания заслуживает необходимость дальнейшего укрепления международного сотрудничества государств в исследуемой области. Такое сотрудничество позволит создать условия для безопасного функционирования ЦИИС, при котором человек сохраняет контроль над ними, а не наоборот. Важно подчеркнуть, что развитие в данной сфере должно происходить в интересах человека и общества в целом, а не приводить к утрате человеческого контроля над модульными процессами, базирующимися на генеративном интеллекте. Международное сотрудничество поможет выработать единые стандарты безопасности, этические принципы и правовые нормы, регулирующие развитие и применение ИИ. Кроме того, совместные усилия государств позволят более эффективно решать глобальные проблемы, связанные с ИИ, такие как защита персональных данных, предотвращение дискриминации и обеспечение кибербезопасности.