Определение места понятия «deep-fake» в правовом регулировании
Автор: Гаврилова В.Д.
Журнал: Международный журнал гуманитарных и естественных наук @intjournal
Рубрика: Юридические науки
Статья в выпуске: 4-1 (91), 2024 года.
Бесплатный доступ
Автор считает, что при обработке технологиями «deep-fake» аудиовизуальное произведение с учетом начального творческого вклада не перестает быть таковым, сохраняет форму, в связи с чем не создается «новый» объект, который бы претендовал на включение в перечень, представленный в ст. 1225 ГК РФ. Проанализирована российская и зарубежная судебная практика, правового регулирования «deep-fakes».
Дипфейк, способ, авторское право, результат интеллектуальной деятельности, интеллектуальная собственность
Короткий адрес: https://sciup.org/170204857
IDR: 170204857 | DOI: 10.24412/2500-1000-2024-4-1-89-91
Текст научной статьи Определение места понятия «deep-fake» в правовом регулировании
Развитие искусственного интеллекта привело к интеграции технологии deepfake (далее – дипфейковые технологии, ДТ), позволяющей создавать подобие людей и заменять лицо, мимику, голос одного существующего человека на другого. Соответствующие аудио- и видеозаписи получили название «deep-fakes» (далее – ди-пфейки).
Думается, наиболее резонансным примером использования ДТ является создание «дипфейков» В.В. Путина, которые делятся рецептом «президентского оливье» и звонят чиновникам [1]. Зрители смотрят аудиовизуальное произведение, но именуют его дипфейком.
Стремительное развитие ДТ и их относительно недавний общественный резонанс в РФ затрагивают сферу интеллектуальной собственности, поскольку происходит определенное изменение результатов интеллектуальной деятельности (далее – РИД), указанных в ст. 1225 ГК РФ. Неизбежно возникает вопрос, можно ли использовать понятие «дипфейк» как самостоятельный РИД?
Для разрешения поставленного вопроса видится необходимым обратиться к решению Арбитражного суда города Москвы (далее – АСГМ) от 30.11.2023 по делу № А40-200471/2023[2], оставленному без изменения судом апелляционной инстанции. Суды считают, что объектом авторского права является и произведение, созданное путем использования дипфейко- вых технологий, с учетом того, что авторы внесли творческий вклад в его создание: написание сценария, съемка и так далее.
В СМИ и научном сообществе указанное решение обсуждается под такими заголовками, как «Российский суд впервые признал дипфейк объектом авторского права» [3] и т.п. Однако подобные тезисы представляются неверными, поскольку АСГМ в вынесенном решении сделал акцент именно на аудиовизуальном произведении, отметив, что использование ДТ не исключает творческий вклад и не влияет на авторские права.
Кроме того, на наш взгляд, достаточно значимым критерием является форма аудиовизуального произведения, которая сохраняется после обработки ДТ. Дополнительно отметим, что по этой причине дипфейк не является и иным видом производного произведения для целей п.1 ст.1260 ГК РФ.
Резонансным в развитии посылки, что дипфейк можно считать производным произведением, стал судебный акт 2020 г.: удаление из YouTube некоторых юмористических начиток рэпера Jay-Z, сгенерированных дипфейковыми технологиями [4]. Судебные инстанции США оценили полученное произведение в качестве производной работы, которая не обладает сходством с песнями Jay-Z.
Вместе с тем, полученное произведение отличается от «оригинала» и обладает «оригинальными» признаками, в действи- тельности же представляя собой комбинирование голоса Jay-Z. При гипотетическом перенесении вопроса в плоскость законодательства РФ создатель такого исполнения не мог бы сослаться на п.4 ст.1260 ГК РФ и утверждать, что была создана паро- дия или карикатура: в полученном произведении отсутствует связь с творчеством Jay-Z, был использован лишь его голос.
Кроме того, в силу антропоцентрично-сти ГК РФ, предусматривающего требования к автору – физическому лицу, вносящему творческий вклад (ст. 1257 ГК РФ), AI не может быть автором, это только инструмент, который может предложить различные варианты решений, однако они следуют из программного кода.
Для получения более широкого представления о возможных моделях регулирования «дипфейков» необходимо изучить опыт КНР, которая не шла по пути запрета дипфейковых материалов, а установила требования к их маркировке во избежание введения зрителей в заблуждение [5].
Представляются значимыми требования КНР о том, чтобы дипфейк с лицом или силуэтом гражданина был опубликован или использован с согласия такого гражданина, в противном случае производитель и оператор сайта подлежат ответственно- сти.
Таким образом, видится неверным использовать понятие «дипфейк» как самостоятельный РИД, в том числе, объект авторского права (например, производное произведение). Факт обработки аудиовизуальных произведений дипфейковыми технологиями не является основанием для признания дипфейка новым объектом авторских прав, поскольку от подобной обработки аудиовизуальное произведение не перестает быть таковым, сохраняет форму, в связи с чем не создается «новый» объект, который бы претендовал на включение в перечень, представленный в ст. 1225 ГК РФ.
Список литературы Определение места понятия «deep-fake» в правовом регулировании
- Владимир Путин (почти) танцует и врывается в челленджи на видео. Стать инфлюенсером ему помогли технологии. - [Электронный ресурс]. - Режим доступа: https://medialeaks.ru/2201amv-trnd-putin-1face/(дата обращения: 30.04.2024).
- Решение Арбитражного суда города Москвы от 30.11.2023 по делу № А40-200471/2023. - [Электронный ресурс]. - Режим доступа: https://kad.arbitr.ru/(дата обращения: 30.04.2024).
- Российский суд впервые признал дипфейк объектом авторского права. - [Электронный ресурс]. - Режим доступа: https://www.kommersant.ru/doc/6380708 (дата обращения: 30.04.2024).
- Jay Z tries to use copyright strikes to remove deepfaked audio of himself from YouTube. Apr 29, 2020. - [Электронный ресурс]. - Режим доступа: https://www.theverge.com/2020/4/28/21240488/jay-z-deepfakes-roc-nation-youtube-removed-ai-copyright-impersonation (дата обращения: 30.04.2024).
- Сухачев С. Глубокие заблуждения: в КНР начали законодательно бороться с дипфейками. - [Электронный ресурс]. - Режим доступа: https://profile.ru/scitech/glubokie-zabluzhdeniya-v-knr-nachali-zakonodatelno-borotsya-s-dipfejkami-1249493/(дата обращения: 30.04.2024).