Правовое регулирование создания и использования дипфейков
Автор: Архиереев Н.В.
Журнал: Правовое государство: теория и практика @pravgos
Рубрика: Публично-правовые (государственно-правовые) науки
Статья в выпуске: 2 (80), 2025 года.
Бесплатный доступ
С развитием искусственного интеллекта появляется все больше технологий, разработанных на его основе, к числу которых относится технология дипфейка, позволяющая создавать и изменять аудиовизуальный цифровой контент с целью создания максимально реалистичных и правдоподобных изображений, которые не существуют в реальности. При этом цель, ради которой создается дипфейк, может быть законной или незаконной. Однако в любом случае дипфейки подрывают доверие к информации, поскольку вероятность того, что изображение, которое человек видит на экране устройства, существует лишь в электронном мире, возрастает в геометрической прогрессии. Цель: анализ правового регулирования создания и использования дипфейков, выявление пробелов и поиск способов сделать их безопасными. Методы: эмпирические методы сравнения, описания, интерпретации; теоретические методы формальной и диалектической логики; частнонаучные методы: юридико-догматический и толкования правовых норм. Результаты: сформулированы предложения, реализация которых позволит исключить нарушения прав и законных интересов граждан при использовании дипфейков.
Искусственный интеллект, дипфейк, сеть Интернет, право, правовое регулирование, права и законные интересы граждан
Короткий адрес: https://sciup.org/142244965
IDR: 142244965 | DOI: 10.33184/pravgos-2025.2.3
Текст научной статьи Правовое регулирование создания и использования дипфейков
Технологии искусственного интеллекта стремительно развиваются, в частности расширяется применение генеративного искусственного интеллекта [1, с. 33], с использованием которого создаются дипфейки (англ. deepfake) – изображение, видео- или аудиозапись кого-то или чего-то, не существующего в реальном мире, либо отражающие несуществующие ситуации. Дипфейк изображения создается в результате работы генеративно-состязательной нейросети (Generative Adversarial Network) следующим образом: одна часть этой сети (генератор) пытается создать реалистичное изображение, а вторая (дискриминатор) пытается определить, подлинное оно или фальшивое. В результате такого «соревнования» появляется реалистичное изображение. Чем больше вычислительных мощностей, тем реалистичнее изображение и тем сложнее человеку или программам-детекторам определить его поддельность. Причем дипфейк – это не обязательно имитация реального субъекта или объекта, это может быть создание кого-то или чего-то реалистично выглядящего, но никогда не существовавшего.
Для создания дипфейков используют следующие методы:
– EBDR (Employment Based Digital Replicas, цифровые копии на основе занятости) – дип-фейк создается непосредственно с участием человека;
– ICDR (Independently Created Digital Replicas, независимо созданные цифровые копии) – в этом случае оцифровывают фото или видеоматериалы.
Следует отметить, что, хотя отечественное законодательство не содержит определения слова «дипфейк», оно используется в различных актах. Так, в Государственной программе Российской Федерации «Информационное общество», утвержденной постановлением Правительства РФ от 15 апреля 2014 г. № 313, указано, что интенсивное развитие перспективных технологий, в том числе генеративного искусственного интеллекта и больших языковых моделей, является не только революционным прорывом для повышения эффективности деятельности организаций, улучшения качества жизни граждан, но и несет различные скрытые угрозы и риски, в частности позволяет быстро и практически бесплатно создавать дипфейки1.
Банк России, анализируя основные направления развития финансовых технологий на период 2025–2027 гг., отмечает, что динамичное развитие технологий искусственного интеллекта сопряжено с рядом технологических, экономических и этических рисков. Помимо традиционных для технологий рисков в области данных и информационной безопасности, для искусственного интеллекта характерны и новые риски, связанные с галлюцинированием моделей (выдачей ими ложных результатов), распространением дипфейков, а также риски ухудшения функциональных характеристик моделей. Отдельно в фокусе внимания регуляторов находятся вопросы этики и защиты прав потребителей, а также риски ограничения конкуренции и монополизации рынка2.
Сферы применения дипфейков
Изначально дипфейки были созданы и использовались в незаконных целях (порнография, политический шантаж, мошенничество, фальсификация доказательств и др.), и до сих пор они являются одной из самых опасных угроз кибербезопасности. Следует отметить, что некачественные дипфейки легко определяются человеком и соответствующими программами и не представляют серьезной угрозы для общества. В пояснительной записке к законопроекту № 718538-8 о внесении изменений в УК РФ в части установления уголовной ответственности за совершение преступлений с использованием технологий подмены личности авторы указывают, что «развитие компьютерных технологий привело к расширению возможностей по созданию видео- и аудиоматериалов на основе образцов изображений и голоса гражданина, искусственно воссоздающих несуществующие события. Ранее злоумышленники также осуществляли, например, в целях клеветы, такие действия, как подделка фотографий, однако современные программно-аппаратные комплексы, а также использование нейросетей и искусственного интеллекта (технологии "дипфейк", "цифровые маски" и т. д.) позволяют создавать подделки, отличить которые от реальности неспециалисту практически невозможно»3.
Как справедливо указывает М.Б. Добро-баба, сам по себе синтез изображений, видео или аудио при применении дипфейк-техно-логий может не иметь социально опасных целей и не затрагивать права других граждан [2, с. 114]. Поэтому эта технология нашла применение и в легальной сфере:
– развлечения (люди загружают в программу свои фото и получают различные изображения и видеоролики);
– кино (создание актеров, замена каскадеров, изменение их лиц, изменение лиц дублеров, воссоздание образов из прошлого, в частности умерших актеров, и т. д.);
– живопись;
– реклама и маркетинг (вымышленные персонажи, имитирование голосов знаменитостей);
– компьютерные игры (создание героев, в том числе на основе образа реального игрока);
– фэшн-индустрия (создание виртуальных моделей);
– дизайн;
– создание виртуальных консультантов (следующая ступень голосовых помощников) и многое другое.
Дипфейки могут и будут использоваться как аудиовизуальная часть цифрового двойника человека [3, с. 103].
На данный момент создание качественных и максимально реалистичных дипфей-ков достаточно дорого из-за несовершенства алгоритмов и их ограниченного распространения. Стоимость создания дипфейка зависит от ряда факторов:
-
1) статичное изображение или видеоролик;
-
2) создание вымышленного объекта или копии кого-либо или чего-либо реально существующего;
-
3) требования к качеству ожидаемого результата;
-
4) размер используемой вычислительной мощности.
И как это происходит со всеми новыми технологиями, очень быстро стоимость создания дипфейков снизится, а благодаря массовому распространению правовые вопросы их создания и использования станут более разнообразными.
Положительные и отрицательные аспекты использования дипфейков
Плюсы от использования дипфейков очевидны, и все они связаны в первую очередь с заменой людей на программный код. Это приводит к экономии бюджета – не нужно платить гонорары актерам и каскадерам, оплачивать оборудование для съемок, шить костюмы, создавать декорации и т. д. Не нужны консультанты – их заменят экраны или голограммы. Созданные образы и голоса можно использовать многократно. Известным личностям не нужно тратить время на съемки в кино или рекламе, достаточно дать согласие на создание своего дипфейка. И это будет выгодно как знаменитым актерам, так и заказчикам. В качестве примера можно привести использование образа Брюса Уиллиса, воссозданного по технологии дипфейка в рекламе отечественного оператора связи4.
Но для обычных людей, которых заменит искусственный интеллект, это только минусы: потеря работы или снижение заработка, увеличение конкуренции, отсутствие необходимости обучаться профессиям, связанным со съемкой (актеры, каскадеры, осветители и др.), что негативно повлияет на целые направления обучения. Это глобальная проблема, возникшая в связи с широким распространением искусственного интеллекта. Например, в 2023 г. в США прошла массовая забастовка актеров, в том числе из-за использования дипфейков при производстве кино5. Надо сказать, что в результате забастовки стороны смогли договориться.
Очевидно, что злонамеренное использование дипфейков незаконно и должно рассматриваться, прежде всего, в рамках уголовного права. В качестве примера подобного правового регулирования следует привести ст. 272.1 УК РФ, предусматривающую ответственность за незаконные использование и (или) передачу, сбор и (или) хранение компьютерной информации, содержащей персональные данные, а равно создание и (или) обеспечение функционирования информационных ресурсов, предназначенных для ее незаконных хранения и (или) распространения. В настоящее время прорабатывается вопрос о признании отягчающим обстоятельством использование дипфейков при совершении мошенничества6.
Вместе с тем справедливо мнение К.В. Шу-бенковой, что борьба законодателя с дипфей-ками не должна быть связана с прямым запретом на их применение. Ограничения призваны лишь защитить общество от последствий неправомерного использования этой технологии и обеспечить точность и правдивость публикуемой информации [4, с. 229].
Это мнение поддерживает и В.О. Калятин. Он считает, что потенциальная опасность технологии не должна приводить к запрету на ее использование, однако законодатель не должен игнорировать возникающие проблемы. По его мнению, действующее законодательство позволяет разрешать возникающие споры, однако во многих аспектах оно становится все менее эффективным [5, с. 103].
Гражданско-правовая регламентация дипфейков
Использование дипфейков, не нарушающее уголовный закон, тоже нуждается в правовом регулировании, прежде всего в рамках гражданского права.
При создании и использовании легального контента могут быть допущены различные нарушения. Необходимо рассмотреть правовые механизмы их недопущения и устранения.
Следует согласиться с Е.А. Свиридовой, что в настоящее время отсутствие правового регулирования использования технологии дип-фейка создает риск нарушения прав граждан на изображение и может нанести ущерб личной и профессиональной репутации [6, с. 120].
Цели правовой регламентации дипфейков: – защита прав граждан, изображения которых используются;
-
– защита прав потребителей измененного контента;
-
– защита прав правообладателей первоисточников дипфейков;
-
– защита прав правообладателей дип-фейков.
Защита прав граждан, изображения которых используются. Говоря о защите прав граждан, изображения которых были использованы при создании дипфейка, следует упомянуть ст. 151.1 («Охрана изображения гражданина») и 152.2 («Охрана частной жизни гражданина») ГК РФ. Согласно ст. 152.1 ГК РФ обнародование и дальнейшее использование изображения гражданина (в том числе его фотографии, а также видеозаписи или произведения изобразительного искусства, на которых он изображен) допускаются только с согласия этого гражданина. После смерти гражданина его изображение может использоваться только с согласия детей и пережившего супруга, а при их отсутствии – с согласия родителей. Такое согласие не требуется, если изображение гражданина получено при съемке, которая проводилась в местах, открытых для свободного посещения, или на публичных мероприятиях (собраниях, съездах, конференциях, концертах, представлениях, спортивных соревнованиях и подобных мероприятиях), за исключением случаев, когда такое изображение является основным объектом использования либо когда гражданин позировал за плату.
В постановлении Пленума Верховного Суда РФ от 23 июня 2015 г. № 25 «О применении судами некоторых положений раздела I части первой Гражданского кодекса Российской Федерации» даны разъяснения, которые, как представляется, заполняют пробелы правового регулирования использования дипфейков7. Так, за исключением случаев, предусмотренных подп. 1–3 п. 1 ст. 152.1 ГК РФ, обнародование изображения гражданина, в том числе размещение его самим гражданином в сети Интернет, и общедоступность такого изображения сами по себе не дают иным лицам права на свободное использование изображения без согласия изображенного лица.
Согласие публичного лица необходимо, если единственной целью обнародования и использования его изображения является удовлетворение обывательского интереса к частной жизни этого лица либо извлечение прибыли.
Факт обнародования и использования изображения лица подлежит доказыванию тем, кто запечатлен на таком изображении. При этом обязанность доказывания правомерности обнародования и использования изображения гражданина возлагается на лицо, его осуществившее.
В силу положений ст. 152.2. ГК РФ не являются нарушением сбор, хранение, распространение и использование информации о частной жизни гражданина в государственных, общественных или иных публичных интересах, а также в случаях, если информация о частной жизни гражданина ранее стала общедоступной либо была раскрыта самим гражданином или по его воле.
Таким образом, можно констатировать, что в России существует достаточная нормативная база, применимая к созданию и использованию дипфейков изображений.
Отдельно следует рассмотреть дипфейк голоса. Исторически сложилось, что отношение к голосу иное, чем к изображению. Голос легко изменить или спародировать, у многих людей похожие голоса, чем часто пользуются производители рекламы. Существует большое количество артистов, чья творческая работа – говорить голосами знаменитостей. В фильмах актеры часто говорят не своим голосом, а кинофильмы, мультфильмы, рекламу в каждой стране озвучивают разные люди на своем языке (актеры озвучивания, актеры дубляжа).
В российском праве отсутствуют специальные нормы, защищающие голоса людей. Представляется, что общество и законодатель не видят особой проблемы в копировании голосов. На наш взгляд, с правовой точки зрения имитирование (копирование) голоса человека мало отличается от имитации голоса искусственным интеллектом. Поэтому какая-либо целесообразность в правовой регламентации дипфейков голосов в настоящее время отсутствует. В то же время незаконное одновременное использование голоса и изображения должно учитываться уполномоченными органами и судами при разрешении конфликтных ситуаций, поскольку эффект заблуждения от такого дипфейка гораздо больше, чем от голоса и изображения по отдельности. Как пишет М.Б. Добробаба, поскольку российское законодательство об авторском праве не охраняет голос, перед законодателем также встают вопросы: относится ли голос человека к персональным данным? кто обладает правом на синтезированный голос – владелец оригинала или тот, кто воссоздал этот голос? [2, с. 115]. Также следует согласиться с Н.Ф. Бодровым и А.К. Лебедевой, что с правовой точки зрения технология генерации речи находится на стыке с биометрической идентификацией по голосу [7, с. 31]. Этот факт должен быть учтен при разработке правового регулирования создания и использования дипфейков голосов.
В России предпринимаются попытки защитить голоса людей. Так, в сентябре 2024 г. в Государственную Думу был внесен законопроект № 718834-8, предлагающий дополнить ч. 1 ГК РФ статьей 152.3, устанавливающей охрану голоса как объекта личных неимущественных прав гражданина по аналогии с изображением гражданина, в том числе в случаях имитации голоса или путем синтеза речи в режиме реального времени. В пояснительной записке авторы указывают, что «в результате активного развития технологий синтеза речи и их массового использования во всех сферах экономики и общественной жизни, в том числе при озвучивании контента (аудиовизуальные произведения, лекции, аудиокниги, подкасты, клипы, музыкальные произведения), автоматизации работы операторов колл-цен-тров, голосовых систем навигации и голосовых помощников, возникают правовые вопросы, требующие законодательного решения.
При недобросовестном использовании технологий синтеза речи возникают неблагоприятные правовые последствия для граждан. В частности, искусственный интеллект, обучившись на аудиозаписях реального голоса, может в дальнейшем его имитировать, и "производные" записи могут быть использованы способом, неприемлемым для человека – обладателя голоса, поскольку получение его согласия прямо не предусмотрено законодательством. Таким образом, нарушается право гражданина самостоятельно решать, как рас- поряжаться записями собственного голоса, в том числе с целью их использования для создания продуктов на основе технологий синтеза речи. Голос за счет высоты, диапазона, силы, тембра и других особенностей является уникальной характеристикой человека, позволяющей идентифицировать его личность»8.
Заслуживает внимания отзыв Правительства России, согласно которому вопросы, затрагиваемые законопроектом, уже урегулированы законодательством Российской Федерации, поскольку:
-
– голос относится к нематериальным благам, принадлежащим гражданину от рождения;
– изъятие из оборота и уничтожение материальных носителей, содержащих голос гражданина, удаление записи голоса гражданина из сети Интернет, а также пресечение или запрещение ее дальнейшего использования и распространения охватываются такими способами защиты гражданских прав, как восстановление положения, существовавшего до нарушения права, и пресечение или запрещение действий, нарушающих или создающих угрозу нарушения личного неимущественного права либо посягающих или создающих угрозу посягательства на нематериальное благо (абз. 3 ст. 12 и п. 2 ст. 150 ГК РФ);
– в соответствии со ст. 3 и 11 Федерального закона «О персональных данных» запись голоса гражданина является обработкой его биометрических персональных данных, которая, по общему правилу, может осуществляться только с его согласия. В случае осуществления такой записи с нарушением установленных правил обработки персональных данных гражданин в соответствии со ст. 24 указанного федерального закона вправе требовать компенсации причиненного морального вреда независимо от возмещения имущественного вреда и понесенных убытков, а также привлечения нарушителя к административной ответственности;
– в соответствии с подп. 2 п. 1 ст. 1304 ГК РФ запись голоса гражданина представляет собой фонограмму, то есть любую исключительно звуковую запись исполнений или иных звуков либо их отображений, в связи с чем права гражданина в отношении такой записи как
объекта прав, смежных с авторскими, могут быть защищены по правилам ч. 4 ГК РФ9.
С такой позицией Правительства России можно было бы согласиться, однако она не учитывает особенность дипфейка голоса. При его создании за основу берется живой голос человека, однако он используется не для обработки и изменения, а как эталон, с которым сравнивается искусственно синтезированная звуковая дорожка, несущая заложенное автором дипфейка содержание. При обработке живого голоса объектом изменения остается этот самый голос без изменения содержания текста (в данном случае речь не идет о монтаже аудиозаписи, когда происходит склейка отдельных фрагментов и в результате появляется аудиозапись с иным смысловым содержанием).
Если права гражданина все же были нарушены, он имеет право:
-
– потребовать от нарушителя удалить дипфейк добровольно, в том числе путем изъятия материальных носителей, содержащих дипфейк, из оборота;
-
– потребовать возмещения убытков и компенсации морального вреда;
-
– обратиться в суд с аналогичными требованиями;
-
– обратиться в суд с диффамационным иском.
Представляется, что говорить о нарушении прав человека дипфейком возможно только в том случае, когда человека можно идентифицировать на этом измененном или созданном изображении. В дальнейшем создатель дипфейка должен доказать, что он правомерно использовал изображение человека либо использовал изображение иного лица. Следует отметить, что использование двойников знаменитостей – частый прием, когда двойники монетизируют свою схожесть с публичными фигурами10. Да и в целом можно сказать, что дипфейки – это проблема знаменитостей, поскольку на использовании их изображений и голосов в гражданском обороте можно заработать или, точнее, сэкономить.
Защита прав потребителей измененного контента. Защита потребителей измененного контента – довольно непростой вопрос с учетом того, что именно их дипфейки пытаются ввести в заблуждение. Представляется, что легализация дипфейков, создание понятных правил их использования сделают дипфейки безопасными. Речь идет о создании единой системы, которая не позволит манипулировать людьми, о том, чтобы потребитель знал, что он видит или слышит дипфейк. Этот вопрос решается в комплексе следующим образом.
-
1. Путем нанесения метки (водяного знака) создателем дипфейка.
-
2. Путем верификации (подтверждения подлинности) контента, по результатам которой контенту может присваиваться специальная метка, что, конечно, не может означать соответствие изображения действительности, поскольку существуют иные способы изменения изображений, без использования искусственного интеллекта (постановочное фото или видео, фотомонтаж и др.).
-
3. Путем обнаружения дипфейков программами-детекторами либо запрета размещения на онлайн-платформах и рассылки в социальных сетях (удаление), либо предупреждения пользователя. Например, видеохостинг YouTube реализовал собственные правила в отношении дипфейков11:
-
– информирование зрителей о том, что контент является измененным, путем нанесения на контент или видеоплеер особой метки;
– от создателей требуется раскрывать, когда они создали измененный или синтетический контент. За нарушение этого правила создатели могут быть подвергнуты удалению контента, отстранению от партнерской программы или другим санкциям;
– синтетически созданное видео, демонстрирующее реалистичное насилие, подлежит удалению независимо от наличия маркировки;
– сгенерированный искусственным интеллектом или другой синтетический или изме-
- ненный контент, который имитирует идентифицируемую личность, включая ее лицо или голос, может быть удален на основе запроса на конфиденциальность. Рассматривая запрос на удаление контента, платформа проверяет, является ли контент пародией или сатирой, можно ли однозначно идентифицировать человека, сделавшего запрос, а если в нем присутствует государственное должностное лицо или известная личность, то к подобным запросам устанавливаются повышенные требования;
– музыкальный контент, созданный с помощью искусственного интеллекта, который имитирует уникальный голос артиста, может быть удален. При рассмотрении подобных запросов подлежит учету, является ли контент предметом новостного репортажа, анализа или критики синтетического вокала.
-
4. Путем возложения на операторов он-лайн-платформ и владельцев социальных сетей обязанности использовать программы-детекторы.
Платформа TikTok ранее запрещала контент, который может ввести пользователей в заблуждение, искажая правду о событиях, или нанести значительный вред объекту видео. В 2023 г. компания изменила правила, определив, что весь реалистичный контент, сгенерированный и отредактированный с помощью искусственного интеллекта, должен быть четко обозначен как таковой либо в подписи к видео, либо в виде наложенной наклейки12.
Защита прав правообладателей первоисточников и дипфейков. Вопрос защиты прав и законных интересов правообладателей дипфейков представляется актуальным, поскольку несет в себе серьезную коммерческую составляющую. Гораздо проще взять за основу реальное изображение и создать нечто новое, чем самостоятельно отыскивать привлекательный образ. Однако следует отметить, что алгоритмы создания дипфейка изображения различные:
-
1) программа генеративного искусственного интеллекта обучена на значительном количестве изображений (фотографии, картины и т. д.) и в зависимости от запроса поль-
- зователя осуществляет компиляцию изображений, в результате чего появляется новое изображение. Причем на одинаковый запрос пользователя программа, как правило, генерирует разные изображения. По сути, пользователь в итоге лишь выбирает понравившееся. Представляется, что определить и, главное, доказать факт использования охраняемого изображения будет практически невозможно, если программа по какой-либо причине не изменит первоисточник либо изменения будут минимальными;
-
2) в программу загружается конкретное изображение, которое подвергается обработке, в результате чего появляется новое изображение.
В обоих случаях появляются иные объекты авторских прав – производные или составные произведения.
С этим выводом не согласен А.М. Постар-нак. Он утверждает, что согласно положениям ч. 4 ГК РФ дипфейк нельзя признать отдельным объектом авторского права как производное произведение, поскольку действующее законодательство относит к субъектам творчества исключительно людей, соответственно, продукт, созданный искусственным интеллектом, не имеет защиты, так как не является результатом авторского (человеческого) труда [8, с. 270].
Мы не разделяем это мнение в силу причин, изложенных далее.
Говорить о нарушении прав правообладателей первоисточников можно в случае, когда дипфейк не отличается от оригинала, то есть, по большому счету, изображение дипфейком не стало. В этом случае подлежат применению существующие правовые механизмы охраны результатов интеллектуальной деятельности и защиты авторских и смежных прав.
Следует отметить, что в самом словосочетании «правообладатель дипфейка» заложено определенное противоречие. Является ли дипфейк и иной контент, созданный искусственным интеллектом, объектом гражданских прав? В науке эти споры до сих пор не утихают. Представляется, что главное – это степень участия человека в создании дипфей-ка, объеме его творческого вклада. Скорее всего, в каждом конкретном случае суду придется выяснять, как создавался дипфейк.
Аналогичной позиции придерживается и А.Н. Артемова. По ее мнению, ключевым при определении охраноспособности такого произведения является наличие минимального творческого вклада человека, который будет признаваться автором данного произведения [9, с. 49].
В России уже есть прецеденты, когда дип-фейк признали объектом авторского права13. Как указал Девятый арбитражный апелляционный суд, оставляя в силе решение суда первой инстанции, любой профессиональный участник рынка программного обеспечения имеет базовое представление о принципах работы технологии дипфейка. Такое преобразование не исключает тот факт, что исходный видеоряд создан творческим трудом авторов. При этом суд отклонил доводы ответчика, согласно которым созданный видеоролик не является объектом авторского права по причине использования технологии дип-фейка, отметив, что это дополнительный инструмент обработки (технического монтажа) видеоматериалов, а не способ их создания.
Отдельного обсуждения требует вопрос о том, кто является правообладателем дипфей-ка – собственник (разработчик) программы или пользователь, который составил описание изображения, максимально точно указал, каким он хочет его видеть. В законодательстве этот вопрос не урегулирован. Видимо, единственным выходом из ситуации до появления правовых норм будут пользовательские соглашения между разработчиком и пользователями специализированных программ.
Заключение
Действующее в России правовое регулирование вполне применимо к созданию и использованию дипфейков. В то же время целесообразно обязать их создателей и распространителей, в том числе владельцев развлекательных и торговых площадок, информировать потребителей об использовании дипфейков, что позволит потребителям принимать осознанные решения и исключить случаи введения их в заблуждение.
При рассмотрении споров о правах на дипфейки в число обстоятельств, подлежащих установлению и доказыванию, будут входить способ создания дипфейка, что являлось первоосновой дипфейка, объем творческого вклада разработчика. В зависимости от этого дипфейк может быть признан объектом авторского права, а его создатель получит защиту государства в случае нарушения прав и законных интересов.