Технологии дипфейк: социально-правовые риски нарушения частной жизни лица и правовые решения
Автор: Жарова А.К.
Журнал: Правопорядок: история, теория, практика @legal-order
Рубрика: Уголовное право и процесс
Статья в выпуске: 2 (45), 2025 года.
Бесплатный доступ
Синтетические произведения создают иллюзию реальности, заставляя зрителя поверить в то, что он видит. В случае если в подобных произведениях фигурируют вымышленные персонажи, их можно рассматривать как художественные произведения. Однако, когда героями становятся реальные люди, а содержание видео и аудиозаписей не соответствует действительности и нарушает права человека, это становится предметом для обсуждения. В статье выдвигается гипотеза о том, что использование общедоступных биометрических персональных данных для создания нового произведения с помощью технологии дипфейк не может быть признано нарушением неприкосновенности частной жизни человека, даже в случае, если персонаж в итоге получает сходство, а сюжет перекликается с частной жизнью какого-либо человека. Для подтверждения или опровержения гипотезы в статье получены ответы на следующие вопросы: является ли такая ситуация правонарушением? Если да, то в какой сфере, например, - в области обработки персональных данных или в области неприкосновенности частной жизни? А также можно ли рассматривать такое произведение, созданное с помощью дипфейка, как художественный вымысел, а все совпадения - как случайность?
Дипфейк, частная жизнь, биометрические персональные данные, судебная практика
Короткий адрес: https://sciup.org/14133314
IDR: 14133314 | DOI: 10.47475/2311-696X-2025-45-2-63-68
Текст научной статьи Технологии дипфейк: социально-правовые риски нарушения частной жизни лица и правовые решения
Институт государства и права РАН, г. Москва, Россия апп a_jarova@mai 1. г и
В последнее время технология дипфейк привлекла к себе внимание юридического сообщества. Это связано с тем, что с помощью технологии можно создавать, в том числе, реалистичные изображения, видео и фотографии с участием людей, и такие синтетические изображения используются злоумышленниками для различных манипуляций, имеющих негативные последствия [10, с. 70-73; 2, с. 685–687].
В научной литературе анализируются ситуации возможного нарушения такими поддельными образами [16, с. 735–740] не только права человека на использование собственного изображения и его персональных данных [12, с. 396–400], в том числе биометрических персональных данных [4, с. 79–87], права на достоинство личности [5, с. 58–62], но и частной жизни лица [8, с. 114–122].
Однако одна ситуация, когда данные являются тайной, и лица получают к ним доступ с нарушением закона. Но совершенно другая ситуация, когда данные о человеке являются общедоступными и становятся основой для создания произведения с помощью технологии дип-фейк. В этом случае возникает несколько вопросов. Первый из них: является ли это правонарушением? Второй вопрос: можно ли рассматривать такое произведение, созданное с помощью дипфейка, как художественный вымысел, а все совпадения — как случайность? В целях получения ответов на указанные вопросы было проведено исследование, результаты которого представлены в данной статье.
Понятие дипфейк
Термин «дипфейк» происходит от первого слова технологии глубокого машинного обучения ИИ (deeplearning) и fake — «подделка».
Дипфейк это метод создания синтетического контента (аудио, изображения, видео, текста) с помощью различных моделей глубокого обучения․ Приведем пример некоторых моделей глубокого обучения, используемых для создания дипфейков: генеративносостязательные нейронные сети (GAN) [3] и трансфор-меры․ В составе GAN есть два алгоритма — генератор и дискриминатор․ Генератор создаёт изображение или звук, а дискриминатор, обученный на большом массиве данных, определяет реалистичность этого изображения или звука1․
Трансформеры — это новая сложная архитектура нейронных сетей, более подробно об этом можно познакомиться в данной статье2․ Такие нейронные сети создают текст, основываясь на вероятности появления каждого следующего элемента в последовательности․ Одним из примеров реализации технологии глубокого обучения является большая языковая модель (например, чат GPT)3, в которой реализована эта технология для генерации текста [14, с․ 98–104], ответов на вопро-сы4 [15], переводов и многого другого․ Применение глубокой нейронной сети позволило достичь большей естественности речи [9, с․ 9]․
Более простое определение, но не объясняющее принцип работы технологии дипфейка, содержится в Рекомендательном глоссарии терминов и определений государств — членов ОДКБ в сфере обеспечения национальной и международной безопасности․ В этом документе под дипфейком понимается «созданное с помощью технологий искусственного интеллекта реалистичное изображение, аудио- или видеоинформация, не соответствующие действительности․ Может быть как полностью вымышленным, так и включающим реальные материалы или их фрагменты, в том числе позволяющие идентифицировать личность конкретного человека, группу лиц, организацию и показать их действия или участие в событиях, никогда не имевших место в действительности»5․
Таким образом, технология дипфейк — это глубокие (состоящие из многих слоёв) нейронные сети, которые позволяют строить многоэтапные алгоритмы обработки информации․ В зависимости от входных данных и алгоритмов обработки информации на выходе могут быть получены различные результаты․ Нейронная сеть позволяет создавать синтетические изображения, например о человеке, как на основе одного объекта, например, фотографии или видео, так и на основе множества таких объектов, например, которые можно получить в интернете․ В тоже время каждый из таких объектов может являться персональными данными лица, а в совокупности представлять информацию о его частной жизни․
Дипфейк и частная жизнь лица
Законодательство напрямую не связывает персональные данные с информацией о частной жизни лица, но, информация о частной жизни лица может содержать персональные данные, например, биометрические персональные данные, такие как изображение человека, его голос и другие данные [7, с․ 16–23]․ В соответствии с ч․ 1 ст․ 23 Конституции Российской Федерации «каждый имеет право на неприкосновенность частной жизни, личную и семейную тайну, защиту своей чести и доброго имени»․ Но, в таком случае закономерен вопрос — что подразумевается под правом на неприкосновенность частной жизни?
На отсутствие четких границ обратила свое внимание Н․ Ш․ Гаджиалиева․ Она пишет, что «реализация права на неприкосновенность частной жизни усложняется и тем, что в законодательстве нет четкого определения права на неприкосновенность частной жизни, нет четких границ частной жизни, что приводит к нарушению единообразия в понимании того, что составляет содержание данного права, каковы его объективные пределы» [6, с․ 34–37]․
Расплывчатость понятия неприкосновенности частной жизни отмечают также другие российские ученые, например, [17, с․ 2–5;11, с․ 108] а также зарубежные ученые [1], с чем мы совершенно согласны․
Ответ дан в определении Конституционного Суда РФ № 248-О․ Так, «право на неприкосновенность частной означает предоставленную человеку и гарантированную государством возможность контролировать информацию о самом себе, препятствовать разглашению сведений личного, интимного характера․ В понятие «частная жизнь» включается та область жизнедеятельности человека, которая относится к отдельному лицу, касается только его и не подлежит контролю со стороны общества и государства, если она носит непротивоправный характер»1․
Однако из анализа определения права на неприкосновенность частной жизни, данного в определении Конституционного Суда РФ № 248-О, следуют закономерные вопросы: что подразумевается под возможностью контролировать информацию о себе, которая предоставляется человеку и гарантируется государством? Может ли быть реализована возможность контролировать информацию о себе в случае применения технологии дипфейк?
Вероятно, возможность контролировать информацию о себе можно рассматривать как синоним обеспечения конфиденциальности информации ограниченного доступа — как режима, при котором третьи лица не смогут получить доступ к этой информации․ Соблюдение конфиденциальности информации, доступ к которой ограничен федеральными законами и актами Президента Российской Федерации, является обязательным (ч․ 2 ст․ 9 ФЗ «Об информации, информационных технологиях и о защите информации»2)․
Хотя должны отметить, что это предположение можно считать спорным, которое требует дополнительных доказательств․ Поскольку существуют определенные отличия между утверждением о том, что информация о человеке не должна быть получена другими, и утверждением о том, что должна существовать возможность контролировать информацию о себе․ В таком случае, какие инструменты есть у человека, чтобы контролировать информацию о себе, если применяется технология дипфейк?
С одной стороны — это вопрос принятия решения человеком о том, какую информацию о себе он хочет раскрыть, а какую — скрыть․ Такая возможность реализуется путем принятия определенных ограничений, которые накладываются на тех, кто пытается получить информацию о других без их согласия․ Но, в анализируемом нами случае — размещении информации о себе в Сети, можно ли эти действия рассматривать как желание довести эти сведения до неограниченного числа лиц?
С другой стороны, в условиях доступности данных человеку должны быть предоставлены технологические возможности контролировать любые действия со стороны третьих лиц, совершаемые с размещенной им инфор-мацией․ А также возможность получения от него согласия на использование этой информации․ Но, очевидно, что технологически реализовать это достаточно слож-но․ Кроме того, в случае применения технологии дип-фейк такой функционал не предусмотрен․ В итоге остается только первый вариант․
Так, в 2013 г․ в Гражданский кодекс Российской Федерации (ГК РФ) введена ст․ 152․2 «Охрана частной жизни гражданина», в которой определено, что «если иное прямо не предусмотрено законом, не допускаются без согласия гражданина сбор, хранение, распространение и использование любой информации о его частной жизни, в частности сведений о его происхождении, о месте его пребывания или жительства, о личной и семейной жизни»3․ Анализ данной статьи позволяет сделать вывод, что, с одной стороны, под защиту частной жизни лица попадает любая информация, относящаяся к этой сфере․ С другой стороны, законодатель во второй части этой статьи, вероятно, привел пример сведений, которые могут быть отнесены к информации о частной жизни, если их рассматривать в контексте всей информации в целом․ С нашей точки зрения, вторая часть статьи не несет никакой смысловой нагрузки и является избыточной информацией․
Уголовно-правовая ответственность наступает за «незаконное собирание или распространение сведений о частной жизни лица, составляющих его личную или семейную тайну, без его согласия, либо распространение этих сведений в публичном выступлении, публично демонстрирующемся произведении или средствах массовой информации, за исключением случаев, предусмотренных статьей 272․1 УК РФ» (ст․ 137 УК РФ)․ Ст․ 272․1 введена в УК РФ в 2024 г․ и направлена на охрану общественных отношений от незаконного «использования и (или) передачи, сбора и (или) хранения компьютерной информации, содержащей персональные данные, а равно создание и (или) обеспечение функционирования информационных ресурсов, предназначенных для ее незаконных хранения и (или) распространения»․
Под «собиранием сведений о частной жизни лица понимаются умышленные действия, состоящие в получении этих сведений любым способом, например путем личного наблюдения, прослушивания, опроса других лиц, в том числе с фиксированием информации аудио-, видео-, фотосредствами, копирования документированных сведений, а также путем похищения или иного их приобретения»1․
Соответственно, для наступления уголовной ответственности пользователя технологии дипфейк — автора синтетического произведения, в случае создания произведения на основании общедоступной информации о человеке необходимо доказать умышленность его действий․
В тоже время для наступления гражданско-правовой ответственности достаточно доказать, что произошел сбор, хранение, распространение и использование любой информации о частной жизни лица без согласия гражданина․
Однако, если синтетическое произведение создается на основе информации о разных людях, то вопрос о незаконности таких действий может быть поднят только в том случае, если будут доказаны факты незаконного сбора информации о частной жизни каждого отдельного человека․ А совпадения в созданном синтетическом произведении можно считать совпадениями или отождествлением с художественным образом․
Пример такого совпадения рассматривался в статье Н․ Н․ Парыгиной [13, с․ 171–180], в рамках анализа дела «Елшевар и другие против Словении»2․ В вышедшем в свет романе женщины в героине романа узнали свою мать, которая была представлена в негативном свете․ Они подали иск в суд, обвинив автора в нарушении их личных прав и оскорблении памяти их близкого человека․ Европейский суд по правам человека (ЕСПЧ) отметил, что роман представляет собой форму художественного выражения, которая может включать в себя определённые степени преувеличения или использование ярких и выразительных образов․ Также было указано, что право на уважение частной жизни должно быть сбалансировано с правом на свободу выражения мнения․ ЕСПЧ признал, что в литературном произведении можно посягать на репутацию предков, а также поддержал решение национального суда и счёл жалобу необоснованной3․
Таким образом, если информация, опубликованная в интернете, послужит основой для создания синтетического художественного произведения, в котором будут некоторые совпадения с лицами, голосами и событиями из частной жизни реальных людей, то в этом случае возможно рассматривать это произведение как художественный вымысел,а все совпадения как случайность, если не будет доказано обратное․
Поскольку произведение фактически создается на базе загруженных в нее изображений, то интересным в этом случае будет пример из правоприменительной практики, связанной с оспариванием законности использования произведений при обучении нейросети․ В этом примере обучение нейронной сети — ChatGPT, разработчиками которой являются компания OpenAI и некоторые другие (запрещенные на территории России), проходило с использованием книг без согласования этих действий с их авторами4․ Кроме того, многие из книг этих авторов были включены в набор данных, который владелец сетей, запрещенных на территории России, использовал для обучения больших языковых моделей․
В 2025 г․ во Франции произошла аналогичная си-туация․ Так, Национальный издательский союз (SNE), Национальный союз авторов и композиторов (SNAC) и Общество литераторов (SGDL) подали жалобу на Meta5
в парижский суд за предполагаемое нарушение авторских прав, поскольку она незаконно использовала контент, защищённый авторским правом, для обучения своих нейросетевых моделей1․
С нашей точки зрения результатом возникающей правоприменительной практики решения вопроса о законности использования открытых данных (будь то персональные данные или результаты интеллектуальной деятельности), размещенных в Сети, как для создания художественного произведения с использованием нейронной сети, так и для ее обучения является пересмотр методов сбора и анализа данных, используемых как для обучения, так и для последующего создания нового контента․
Правовые решения
В связи со сложностью правовой оценки ситуаций, связанных с созданием дипфейков, государства выбирают методы контроля за синтетическими произведениями, к которым относятся их маркировка и мониторинг распространения․
В Российской Федерации Председатель комитета Госдумы по информационной политике, информационным технологиям и связи А․ Хинштейн анонсировал в конце 2023 г․ разработку законопроекта, закрепляющего понятия «нейросеть», «дипфейк», «искусственный интеллект», а также определяющего порядок маркировки контента, созданного нейросетями․ Перечисленные понятия предлагается включить в разрабатываемую концепцию Цифрового кодекса Российской Федерации2․
Предполагается определить следующий порядок маркировки синтетического контента ․ Автор синтетического контента будет обязан указать, что контент был создан с применением технологии дипфейк․ Последующая верификация будет осуществляться на единой платформе, к которой присоединятся российские сервисы, осуществляющие обработку пользовательского контента․ Федеральная служба по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор) будет наделена новыми полномочиями, включая возможность проведения экспертиз для выявления контента, созданного с применением нейросетей, в случаях, когда авторы не обеспечат его соответствующую маркировку․ За нарушение порядка маркировки будут предусмотрены санкции, которые могут включать принудительную маркировку контента или его полную блокировку, особенно в случае распространения материалов, противоречащих положениям законодательства․
В КНР 10 января 2023 г․ вступило в силу правительственное «Постановление о порядке осуществления деятельности по управлению информационными ин-тернет-услугами, использующими технологии глубокого синтеза», которое в конце 2022 г․ совместно издали Администрация киберпространства Китая (CAC), Министерство промышленности и информационных технологий и Министерство общественной безопасности3․
В Российской Федерации уже функционирует система «Зефир», предназначенная для обнаружения материалов, созданных с использованием технологий искусственного интеллекта, включая дипфейки4․ В течение 2023 года система «Зефир» обработала более 3,5 тыс․ единиц медиаконтента, обнаруженного в ходе ежедневного мониторинга․ Специалисты определили, что около тысячи проверенных роликов были созданы с помощью нейросетей или систем искусственного ин-теллекта․ Кроме того, за этот же период в автоматическом режиме было проверено ещё около 2 миллионов видео- и аудиозаписей․
Заключение
Подводя итог проведенному исследованию, можно заключить, что использование общедоступных биометрических персональных данных может быть признано правонарушением в рамках гражданского права, если не будет доказано, что субъект персональных данных сделал их общедоступными сам․ Преступлением будет признано умышленное собирание данных о частной жизни лица любым способом․
В тоже время использование общедоступных персональных данных для создания синтетического художественного произведения не может быть квалифицировано как правонарушение․ Ведь схожесть персонажей с реальными людьми — это может быть лишь случайное совпадение, а пересечение сюжетной линии с чьей-то частной жизнью — лишь реализация идеи автора, использующего технологию дипфейк․
Для признания правонарушения в последнем случае необходимо доказать незаконность использования данных, а для этого необходимо подтвердить каждый случай их незаконной обработки․
В связи со сложностью собирания доказательств и квалификации действий в Российской Федерации предлагается применять такие методы контроля за контентом, создаваемым технологией дипфейк, как мониторинг и маркировка․ На данный момент эти методы являются наиболее действенными для быстрого и точного определения инструментов создания контента․
Эти методы исключают проблему анонимности синтетического контента․ Поскольку, только те, чья личность подтверждена, смогут публиковать и распространять синтетический генеративный контент․ Это означает, что анонимный дипфейк больше не будет доступен․
В целях более полного контроля за такими технологиями и получаемым контентом необходимо сформировать систему законодательства, регулирующего процедуры формирования обучающих данных и их дальнейшего использования в целях машинного обучения․ Кроме того, необходимо установить требования к открытости информации об обучающих данных, используемых разработчиками нейросетевых моделей․ Это позволит предотвратить возможные злоупотребления данными в личных интересах или для манипулирования ими․ Также любой значимый процесс изменения контента или создания новой информации будет однозначно обозначаться․ Это касается всех данных: текстовых, аудио- и видеоматериалов, а также управления мимикой и поведением персонажей․