Суть простая: загружаете портрет и «движущее» видео (или вебку), а нейросеть переносит мимику, повороты головы и речь на фото. На выходе получается будто человек с картинки реально говорит и двигается. Главная киллер-фича: система может генерировать длинные ролики без обрывов и работать почти в лайве. Технологию уже приняли на топ-конференцию CVPR-2026, код открыт на GitHub. Потенциально это новый уровень для VTuber-стримов, цифровых ведущих и виртуальных персонажей. Забираем — здесь. Technogram Inside
Делаем идеальные дипфейки — вышел PersonaLive, ИИ который анимирует лицо в реальном времени для стримов и видео
ВчераВчера
~1 мин