Технологии дипфейк: социально-правовые риски нарушения частной жизни лица и правовые решения
Автор: Жарова А.К.
Журнал: Правопорядок: история, теория, практика @legal-order
Рубрика: Уголовное право и процесс
Статья в выпуске: 2 (45), 2025 года.
Бесплатный доступ
Синтетические произведения создают иллюзию реальности, заставляя зрителя поверить в то, что он видит. В случае если в подобных произведениях фигурируют вымышленные персонажи, их можно рассматривать как художественные произведения. Однако, когда героями становятся реальные люди, а содержание видео и аудиозаписей не соответствует действительности и нарушает права человека, это становится предметом для обсуждения. В статье выдвигается гипотеза о том, что использование общедоступных биометрических персональных данных для создания нового произведения с помощью технологии дипфейк не может быть признано нарушением неприкосновенности частной жизни человека, даже в случае, если персонаж в итоге получает сходство, а сюжет перекликается с частной жизнью какого-либо человека. Для подтверждения или опровержения гипотезы в статье получены ответы на следующие вопросы: является ли такая ситуация правонарушением? Если да, то в какой сфере, например, - в области обработки персональных данных или в области неприкосновенности частной жизни? А также можно ли рассматривать такое произведение, созданное с помощью дипфейка, как художественный вымысел, а все совпадения - как случайность?
Дипфейк, частная жизнь, биометрические персональные данные, судебная практика
Короткий адрес: https://sciup.org/14133314
IDR: 14133314 | УДК: 343.9 | DOI: 10.47475/2311-696X-2025-45-2-63-68
Deepfake technologies: socio-legal risks of violation of individual’s privacy and legal solutions
Synthetic works create the illusion of reality, forcing the viewer to believe in what he sees. If fictional characters appear in such works, they can be considered as works of fiction. However, when real people become the heroes, and the content of the videos and audio recordings does not correspond to reality and violates human rights, this becomes a subject for discussion. The article hypothesizes that the use of publicly available biometric personal data to create a new work using deepfake technology cannot be considered a violation of a person’s privacy, even if the character eventually gets a resemblance and the plot resonates with a person’s private life. To confirm or refute the hypothesis, the article provides answers to the following questions: is this situation an offense? If so, in which area, for example, in the field of personal data processing or in the field of privacy? And also, is it possible to consider such a work created with the help of a deepfake as fiction, and all coincidences as an accident?
Текст научной статьи Технологии дипфейк: социально-правовые риски нарушения частной жизни лица и правовые решения
Институт государства и права РАН, г. Москва, Россия апп a_jarova@mai 1. г и
В последнее время технология дипфейк привлекла к себе внимание юридического сообщества. Это связано с тем, что с помощью технологии можно создавать, в том числе, реалистичные изображения, видео и фотографии с участием людей, и такие синтетические изображения используются злоумышленниками для различных манипуляций, имеющих негативные последствия [10, с. 70-73; 2, с. 685–687].
В научной литературе анализируются ситуации возможного нарушения такими поддельными образами [16, с. 735–740] не только права человека на использование собственного изображения и его персональных данных [12, с. 396–400], в том числе биометрических персональных данных [4, с. 79–87], права на достоинство личности [5, с. 58–62], но и частной жизни лица [8, с. 114–122].
Однако одна ситуация, когда данные являются тайной, и лица получают к ним доступ с нарушением закона. Но совершенно другая ситуация, когда данные о человеке являются общедоступными и становятся основой для создания произведения с помощью технологии дип-фейк. В этом случае возникает несколько вопросов. Первый из них: является ли это правонарушением? Второй вопрос: можно ли рассматривать такое произведение, созданное с помощью дипфейка, как художественный вымысел, а все совпадения — как случайность? В целях получения ответов на указанные вопросы было проведено исследование, результаты которого представлены в данной статье.
Понятие дипфейк
Термин «дипфейк» происходит от первого слова технологии глубокого машинного обучения ИИ (deeplearning) и fake — «подделка».
Дипфейк это метод создания синтетического контента (аудио, изображения, видео, текста) с помощью различных моделей глубокого обучения․ Приведем пример некоторых моделей глубокого обучения, используемых для создания дипфейков: генеративносостязательные нейронные сети (GAN) [3] и трансфор-меры․ В составе GAN есть два алгоритма — генератор и дискриминатор․ Генератор создаёт изображение или звук, а дискриминатор, обученный на большом массиве данных, определяет реалистичность этого изображения или звука1․
Трансформеры — это новая сложная архитектура нейронных сетей, более подробно об этом можно познакомиться в данной статье2․ Такие нейронные сети создают текст, основываясь на вероятности появления каждого следующего элемента в последовательности․ Одним из примеров реализации технологии глубокого обучения является большая языковая модель (например, чат GPT)3, в которой реализована эта технология для генерации текста [14, с․ 98–104], ответов на вопро-сы4 [15], переводов и многого другого․ Применение глубокой нейронной сети позволило достичь большей естественности речи [9, с․ 9]․
Более простое определение, но не объясняющее принцип работы технологии дипфейка, содержится в Рекомендательном глоссарии терминов и определений государств — членов ОДКБ в сфере обеспечения национальной и международной безопасности․ В этом документе под дипфейком понимается «созданное с помощью технологий искусственного интеллекта реалистичное изображение, аудио- или видеоинформация, не соответствующие действительности․ Может быть как полностью вымышленным, так и включающим реальные материалы или их фрагменты, в том числе позволяющие идентифицировать личность конкретного человека, группу лиц, организацию и показать их действия или участие в событиях, никогда не имевших место в действительности»5․
Таким образом, технология дипфейк — это глубокие (состоящие из многих слоёв) нейронные сети, которые позволяют строить многоэтапные алгоритмы обработки информации․ В зависимости от входных данных и алгоритмов обработки информации на выходе могут быть получены различные результаты․ Нейронная сеть позволяет создавать синтетические изображения, например о человеке, как на основе одного объекта, например, фотографии или видео, так и на основе множества таких объектов, например, которые можно получить в интернете․ В тоже время каждый из таких объектов может являться персональными данными лица, а в совокупности представлять информацию о его частной жизни․
Дипфейк и частная жизнь лица
Законодательство напрямую не связывает персональные данные с информацией о частной жизни лица, но, информация о частной жизни лица может содержать персональные данные, например, биометрические персональные данные, такие как изображение человека, его голос и другие данные [7, с․ 16–23]․ В соответствии с ч․ 1 ст․ 23 Конституции Российской Федерации «каждый имеет право на неприкосновенность частной жизни, личную и семейную тайну, защиту своей чести и доброго имени»․ Но, в таком случае закономерен вопрос — что подразумевается под правом на неприкосновенность частной жизни?
На отсутствие четких границ обратила свое внимание Н․ Ш․ Гаджиалиева․ Она пишет, что «реализация права на неприкосновенность частной жизни усложняется и тем, что в законодательстве нет четкого определения права на неприкосновенность частной жизни, нет четких границ частной жизни, что приводит к нарушению единообразия в понимании того, что составляет содержание данного права, каковы его объективные пределы» [6, с․ 34–37]․
Расплывчатость понятия неприкосновенности частной жизни отмечают также другие российские ученые, например, [17, с․ 2–5;11, с․ 108] а также зарубежные ученые [1], с чем мы совершенно согласны․
Ответ дан в определении Конституционного Суда РФ № 248-О․ Так, «право на неприкосновенность частной означает предоставленную человеку и гарантированную государством возможность контролировать информацию о самом себе, препятствовать разглашению сведений личного, интимного характера․ В понятие «частная жизнь» включается та область жизнедеятельности человека, которая относится к отдельному лицу, касается только его и не подлежит контролю со стороны общества и государства, если она носит непротивоправный характер»1․
Однако из анализа определения права на неприкосновенность частной жизни, данного в определении Конституционного Суда РФ № 248-О, следуют закономерные вопросы: что подразумевается под возможностью контролировать информацию о себе, которая предоставляется человеку и гарантируется государством? Может ли быть реализована возможность контролировать информацию о себе в случае применения технологии дипфейк?
Вероятно, возможность контролировать информацию о себе можно рассматривать как синоним обеспечения конфиденциальности информации ограниченного доступа — как режима, при котором третьи лица не смогут получить доступ к этой информации․ Соблюдение конфиденциальности информации, доступ к которой ограничен федеральными законами и актами Президента Российской Федерации, является обязательным (ч․ 2 ст․ 9 ФЗ «Об информации, информационных технологиях и о защите информации»2)․
Хотя должны отметить, что это предположение можно считать спорным, которое требует дополнительных доказательств․ Поскольку существуют определенные отличия между утверждением о том, что информация о человеке не должна быть получена другими, и утверждением о том, что должна существовать возможность контролировать информацию о себе․ В таком случае, какие инструменты есть у человека, чтобы контролировать информацию о себе, если применяется технология дипфейк?
С одной стороны — это вопрос принятия решения человеком о том, какую информацию о себе он хочет раскрыть, а какую — скрыть․ Такая возможность реализуется путем принятия определенных ограничений, которые накладываются на тех, кто пытается получить информацию о других без их согласия․ Но, в анализируемом нами случае — размещении информации о себе в Сети, можно ли эти действия рассматривать как желание довести эти сведения до неограниченного числа лиц?
С другой стороны, в условиях доступности данных человеку должны быть предоставлены технологические возможности контролировать любые действия со стороны третьих лиц, совершаемые с размещенной им инфор-мацией․ А также возможность получения от него согласия на использование этой информации․ Но, очевидно, что технологически реализовать это достаточно слож-но․ Кроме того, в случае применения технологии дип-фейк такой функционал не предусмотрен․ В итоге остается только первый вариант․
Так, в 2013 г․ в Гражданский кодекс Российской Федерации (ГК РФ) введена ст․ 152․2 «Охрана частной жизни гражданина», в которой определено, что «если иное прямо не предусмотрено законом, не допускаются без согласия гражданина сбор, хранение, распространение и использование любой информации о его частной жизни, в частности сведений о его происхождении, о месте его пребывания или жительства, о личной и семейной жизни»3․ Анализ данной статьи позволяет сделать вывод, что, с одной стороны, под защиту частной жизни лица попадает любая информация, относящаяся к этой сфере․ С другой стороны, законодатель во второй части этой статьи, вероятно, привел пример сведений, которые могут быть отнесены к информации о частной жизни, если их рассматривать в контексте всей информации в целом․ С нашей точки зрения, вторая часть статьи не несет никакой смысловой нагрузки и является избыточной информацией․
Уголовно-правовая ответственность наступает за «незаконное собирание или распространение сведений о частной жизни лица, составляющих его личную или семейную тайну, без его согласия, либо распространение этих сведений в публичном выступлении, публично демонстрирующемся произведении или средствах массовой информации, за исключением случаев, предусмотренных статьей 272․1 УК РФ» (ст․ 137 УК РФ)․ Ст․ 272․1 введена в УК РФ в 2024 г․ и направлена на охрану общественных отношений от незаконного «использования и (или) передачи, сбора и (или) хранения компьютерной информации, содержащей персональные данные, а равно создание и (или) обеспечение функционирования информационных ресурсов, предназначенных для ее незаконных хранения и (или) распространения»․
Под «собиранием сведений о частной жизни лица понимаются умышленные действия, состоящие в получении этих сведений любым способом, например путем личного наблюдения, прослушивания, опроса других лиц, в том числе с фиксированием информации аудио-, видео-, фотосредствами, копирования документированных сведений, а также путем похищения или иного их приобретения»1․
Соответственно, для наступления уголовной ответственности пользователя технологии дипфейк — автора синтетического произведения, в случае создания произведения на основании общедоступной информации о человеке необходимо доказать умышленность его действий․
В тоже время для наступления гражданско-правовой ответственности достаточно доказать, что произошел сбор, хранение, распространение и использование любой информации о частной жизни лица без согласия гражданина․
Однако, если синтетическое произведение создается на основе информации о разных людях, то вопрос о незаконности таких действий может быть поднят только в том случае, если будут доказаны факты незаконного сбора информации о частной жизни каждого отдельного человека․ А совпадения в созданном синтетическом произведении можно считать совпадениями или отождествлением с художественным образом․
Пример такого совпадения рассматривался в статье Н․ Н․ Парыгиной [13, с․ 171–180], в рамках анализа дела «Елшевар и другие против Словении»2․ В вышедшем в свет романе женщины в героине романа узнали свою мать, которая была представлена в негативном свете․ Они подали иск в суд, обвинив автора в нарушении их личных прав и оскорблении памяти их близкого человека․ Европейский суд по правам человека (ЕСПЧ) отметил, что роман представляет собой форму художественного выражения, которая может включать в себя определённые степени преувеличения или использование ярких и выразительных образов․ Также было указано, что право на уважение частной жизни должно быть сбалансировано с правом на свободу выражения мнения․ ЕСПЧ признал, что в литературном произведении можно посягать на репутацию предков, а также поддержал решение национального суда и счёл жалобу необоснованной3․
Таким образом, если информация, опубликованная в интернете, послужит основой для создания синтетического художественного произведения, в котором будут некоторые совпадения с лицами, голосами и событиями из частной жизни реальных людей, то в этом случае возможно рассматривать это произведение как художественный вымысел,а все совпадения как случайность, если не будет доказано обратное․
Поскольку произведение фактически создается на базе загруженных в нее изображений, то интересным в этом случае будет пример из правоприменительной практики, связанной с оспариванием законности использования произведений при обучении нейросети․ В этом примере обучение нейронной сети — ChatGPT, разработчиками которой являются компания OpenAI и некоторые другие (запрещенные на территории России), проходило с использованием книг без согласования этих действий с их авторами4․ Кроме того, многие из книг этих авторов были включены в набор данных, который владелец сетей, запрещенных на территории России, использовал для обучения больших языковых моделей․
В 2025 г․ во Франции произошла аналогичная си-туация․ Так, Национальный издательский союз (SNE), Национальный союз авторов и композиторов (SNAC) и Общество литераторов (SGDL) подали жалобу на Meta5
в парижский суд за предполагаемое нарушение авторских прав, поскольку она незаконно использовала контент, защищённый авторским правом, для обучения своих нейросетевых моделей1․
С нашей точки зрения результатом возникающей правоприменительной практики решения вопроса о законности использования открытых данных (будь то персональные данные или результаты интеллектуальной деятельности), размещенных в Сети, как для создания художественного произведения с использованием нейронной сети, так и для ее обучения является пересмотр методов сбора и анализа данных, используемых как для обучения, так и для последующего создания нового контента․
Правовые решения
В связи со сложностью правовой оценки ситуаций, связанных с созданием дипфейков, государства выбирают методы контроля за синтетическими произведениями, к которым относятся их маркировка и мониторинг распространения․
В Российской Федерации Председатель комитета Госдумы по информационной политике, информационным технологиям и связи А․ Хинштейн анонсировал в конце 2023 г․ разработку законопроекта, закрепляющего понятия «нейросеть», «дипфейк», «искусственный интеллект», а также определяющего порядок маркировки контента, созданного нейросетями․ Перечисленные понятия предлагается включить в разрабатываемую концепцию Цифрового кодекса Российской Федерации2․
Предполагается определить следующий порядок маркировки синтетического контента ․ Автор синтетического контента будет обязан указать, что контент был создан с применением технологии дипфейк․ Последующая верификация будет осуществляться на единой платформе, к которой присоединятся российские сервисы, осуществляющие обработку пользовательского контента․ Федеральная служба по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор) будет наделена новыми полномочиями, включая возможность проведения экспертиз для выявления контента, созданного с применением нейросетей, в случаях, когда авторы не обеспечат его соответствующую маркировку․ За нарушение порядка маркировки будут предусмотрены санкции, которые могут включать принудительную маркировку контента или его полную блокировку, особенно в случае распространения материалов, противоречащих положениям законодательства․
В КНР 10 января 2023 г․ вступило в силу правительственное «Постановление о порядке осуществления деятельности по управлению информационными ин-тернет-услугами, использующими технологии глубокого синтеза», которое в конце 2022 г․ совместно издали Администрация киберпространства Китая (CAC), Министерство промышленности и информационных технологий и Министерство общественной безопасности3․
В Российской Федерации уже функционирует система «Зефир», предназначенная для обнаружения материалов, созданных с использованием технологий искусственного интеллекта, включая дипфейки4․ В течение 2023 года система «Зефир» обработала более 3,5 тыс․ единиц медиаконтента, обнаруженного в ходе ежедневного мониторинга․ Специалисты определили, что около тысячи проверенных роликов были созданы с помощью нейросетей или систем искусственного ин-теллекта․ Кроме того, за этот же период в автоматическом режиме было проверено ещё около 2 миллионов видео- и аудиозаписей․
Заключение
Подводя итог проведенному исследованию, можно заключить, что использование общедоступных биометрических персональных данных может быть признано правонарушением в рамках гражданского права, если не будет доказано, что субъект персональных данных сделал их общедоступными сам․ Преступлением будет признано умышленное собирание данных о частной жизни лица любым способом․
В тоже время использование общедоступных персональных данных для создания синтетического художественного произведения не может быть квалифицировано как правонарушение․ Ведь схожесть персонажей с реальными людьми — это может быть лишь случайное совпадение, а пересечение сюжетной линии с чьей-то частной жизнью — лишь реализация идеи автора, использующего технологию дипфейк․
Для признания правонарушения в последнем случае необходимо доказать незаконность использования данных, а для этого необходимо подтвердить каждый случай их незаконной обработки․
В связи со сложностью собирания доказательств и квалификации действий в Российской Федерации предлагается применять такие методы контроля за контентом, создаваемым технологией дипфейк, как мониторинг и маркировка․ На данный момент эти методы являются наиболее действенными для быстрого и точного определения инструментов создания контента․
Эти методы исключают проблему анонимности синтетического контента․ Поскольку, только те, чья личность подтверждена, смогут публиковать и распространять синтетический генеративный контент․ Это означает, что анонимный дипфейк больше не будет доступен․
В целях более полного контроля за такими технологиями и получаемым контентом необходимо сформировать систему законодательства, регулирующего процедуры формирования обучающих данных и их дальнейшего использования в целях машинного обучения․ Кроме того, необходимо установить требования к открытости информации об обучающих данных, используемых разработчиками нейросетевых моделей․ Это позволит предотвратить возможные злоупотребления данными в личных интересах или для манипулирования ими․ Также любой значимый процесс изменения контента или создания новой информации будет однозначно обозначаться․ Это касается всех данных: текстовых, аудио- и видеоматериалов, а также управления мимикой и поведением персонажей․