Дипфейки снова в деле. На этот раз исследователи скормили нейросети по одной фотографии и аудиозаписи, и Эйнштейн начал читать лекцию, а Распутин запел песню Бейонсе.
Ещё один пример — ролик, в котором люди произносят фразы с заданными эмоциями. Отвращение, грусть, злость — чтобы их передать, тоже было достаточно одного снимка и одного аудиофайла.
Всё это, конечно, выглядит не сверхреалистично. Но вы только представьте, что было бы, если бы фото было не одно, а, скажем, несколько десятков.
Все видео можно посмотреть по ссылке: https://www.theverge.com/2019/6/20/18692671/deepfake-technology-singing-talking-video-portrait-from-a-single-image-imperial-college-samsung
Подписывайтесь на наш канал, чтобы читать новости из будущего!