Дипфейки все чаще встречаются в кино и рекламе. Технология позволяет омолодить и состарить человека, заставить его говорить на разных языках и даже «воскресить» умершего актера. В ближайшие годы зрители могут увидеть много картин с ушедшими из жизни звездами, но встает юридический вопрос — кому принадлежат права на лица актеров.
Достойная замена?
Компьютерные технологии широко используются в кинематографе, это не секрет. Но в последние годы графику и искусственный интеллект применяют не только для создания декораций и спецэффектов, но и для изменения внешности или замены актеров.
В мае 2022 года Первый канал выпустил четвертый сезон сериала «Дивергент», в котором появился актер Владислав Галкин. В этом не было бы ничего удивительного, если бы Галкин не скончался в 2010 году. На создание его дипфейка у технических специалистов ушло четыре месяца, и все ради восьми минут в кадре. Гендиректору канала Константину Эрнсту эксперимент понравился. Он объявил, что запустил в производство ремейк «Семи самураев» Акиры Куросавы. Главные роли «сыграют» умершие советские актеры.
Подобных примеров множество: от замены погибшего в автокатастрофе Пола Уокера на дипфейк в «Форсаже 7» до шуточных роликов с новогодним поздравлением президента Владимира Путина на итальянском языке или Илона Маска, поющего «Траву у дома» с «Землянами». А недавно в России выпустили дипфейк-сериал «ПМЖейсон». Роли в нем «исполнили» Киану Ривз, Джейсон Стэйтем и Марго Робби.
Война с фейками
После выхода «Диверсанта» с «воскрешенным» Галкиным приемный отец актера пригрозил кинокомпании иском. Мужчину возмутило, что воссоздание образа умершего Галкина никак не было согласовано с его семьей.
Создание дипфейков действительно вызывает много вопросов и споров. Этично ли снимать шуточные ролики с участием знаменитостей без их одобрения? Согласился бы умерший актер появиться в фильме, где создали его дипфейк? Если искусственный Дональд Трамп скажет на видео то, что политик сам написал в своих соцсетях, — это законно?
Поначалу дипфейки было легко отличить от реальных изображений по неестественности движений, но со временем искусственный интеллект научился мастерски создавать искусственные изображения и накладывать лица. Технология широко доступна, и аферисты используют ее для создания фейковых новостей, политического и порношантажа, мошенничества. Так что стать жертвой дипфейка может даже обычный человек, а не только знаменитости.
Время действовать
Вопросы охраны авторских прав ждут своего обсуждения на законодательном уровне. В сентябре декан факультета права Высшей школы экономики, член Общественной палаты РФ Вадим Виноградов направил в Минцифры предложение маркировать все системы искусственного интеллекта. Тогда можно было бы предупреждать пользователей о том, что они общаются не с реальным человеком, сообщила «Парламентская газета».
Юрист по авторским правам Алексей Сорочихин рассказал «Ямал-Медиа», что пока российские законы не регулируют понятие дипфейка, а правила использования образа человека, в том числе после его смерти, нуждается в уточнении.
Безусловно, необходимо прорабатывать вопрос создания дипфейков на законодательном уровне как минимум потому, что это должно быть урегулировано как в части передачи права на результат и образ, так и в вопросе объема использования этого образа.
Алексей Сорочихинюрист по авторским правам
По словам юриста, сейчас в законодательстве есть пробелы, которые позволяют трактовать его по-разному. Человек должен четко понимать, какие действия могут совершать он, его родственники и другие люди с его образом. Этот момент необходимо зафиксировать в своде законов.
«Дипфейк можно получить без фактического присутствия человека. В уголовном, гражданском и административном праве могут создаваться прецеденты, связанные с незаконным использованием дипфейка: на камерах, видеоматериалах, подложных клеветнических материалах», — заключил Сорочихин.
Самые важные и оперативные новости — в нашем телеграм-канале «Ямал-Медиа».