Ура! Вот и наши соотечественники попали в СМИ со своими достижениями в области deep learning. Они научились генерировать видео «говорящей головы» используя несколько или даже одно статическое изображение. Видео генерирует даже ракурсы, не представленные на фото. Это надо просто увидеть (ссылка на видео ниже). А почитать можно, как они это сделали. До этого требовались видео длиной несколько минут или большой датасет фотографий и много часов обучения на GPU. Ребята же придумали как сделать мета-обучение, чтобы потом всего на нескольких фото за несколько тренировочных шагов обучить модель под конкретного человека. Их сеть показала отличные результаты при проверке на живых людях. Людям показывали 3 статических изображения одного человека, нужно угадать, где фейк. Их лучшая модель показала результат 33%, то есть люди не догадались, где фейк и выбирали наугад. Дальше немного о том, как. Основа модели - генеративно-состязательная сеть(Generative adversarial network - GAN), которая сост