Правительство России планирует профинансировать разработку программ по распознаванию сгенерированного контента (deepfake) до 2030 года. Это следует из дорожной карты развития «Национального общесистемного ПО», которая была принята 16 декабря. С документом ознакомился «Коммерсант».
Как отмечается в тексте, на проекты планируется выделить гранты, развитием будет заниматься Фонд содействия инновациям.
Таким образом, к 2030 году в России появится не менее пяти систем для распознавания видеофейков в СМИ и социальных сетях. Планируется, что к 2025 году такие системы должны распознавать не менее 70% фейков.
Как пояснили в Минцифры, для эффективной борьбы с фейками в соцсетях требуется специальное программное обеспечение, которое позволит устанавливать подлинность различных типов аудио- и визуальной информации. Пользователями такой технологии могут стать новостные, медиа- и PR-агентства, которые нуждаются в проверке достоверности информации, а также пользователи, сомневающиеся в подлинности аудио- и визуального контента.
По словам юрисконсульта практики интеллектуальной собственности юридической компании ЭБР Спартака Хулхачиева, желание регуляторов контролировать сферу deepfake-технологий обсуждается уже давно. Так, специалист напомнил о намерении властей Великобритании запретить распространение порнографического контента, созданного с применением дипфейк-технологий.
«Дипфейки могут быть неприятными как для селебрити, так и для обычных людей. Из знаменитостей жертвами создания дипфейк-порнороликов становились Эмма Уотсон, Билли Айлиш, Скарлетт Йоханссон, Элизабет Олсен. Примечательно, но жертвой стала даже персонаж компьютерной игры The Last of Us Элли Уильямс. Последний пример, несмотря на «виртуальное» происхождение, предположительно, может нарушать авторские права на персонажа, что может затрагивать права разработчиков», — рассказал Хулхачиев «Известиям».
Он также отметил, что жертвами мошеннических действий, основанных на deepfake-технологиях, становились и частные лица: например, в разговоре злоумышленники имитировали чужой голос при звонке якобы от банка, применяли поддельную рекламу и другие способы.
По мнению юрисконсульта, эффективность планируемых мер с правовой точки зрения будет зависеть от принципов и алгоритмов работы разрабатываемого ПО для борьбы с deepfake-контентом.
«Если это будет только мониторинг и фиксация, то частному субъекту в любом случае нужно будет защищать свои права самостоятельно (например, требовать компенсации морального вреда за неправомерную обработку персональных данных или использовать иные способы защиты). Также неясно, как частное лицо сможет получить доказательство использования его образа, если захочет обратиться с иском о защите чести и достоинства против создателя deepfake-ролика. Иными словами, будет ли разработчик такого ПО безвозмездно передавать данные частному лицу, неизвестно», — уточнил Хулхачиев.
Дипфейк (Deepfake) — методика синтеза изображения, основанная на искусственном интеллекте (ИИ). Она используется для соединения и наложения существующих изображений и видео на исходные изображения или видеоролики.