Добавить в корзинуПозвонить
Найти в Дзене
Человек 2.0

HeyGen Avatar V и Seedance 2.0. Один промпт вместо съёмочной группы

Пятнадцать секунд. Именно столько нужно снять на телефон, чтобы HeyGen Avatar V создал вашего цифрового двойника. Причём это будет уже не сырой концепт вроде того шлака, которым уже второй год переполнен нельзяграм, а вполне себе рабочий инструмент. И этот инструмент уже доступен на Creator-плане за $24 в месяц. 8 апреля 2026 года HeyGen выкатил два релиза подряд, Avatar V и интеграцию Seedance 2.0 через Avatar Shot. Все предыдущие генерации AI-аватаров имели одну и ту же проблему. Начинается за здравие, а через двадцать секунд можно выпить за упокой. Аватар превращается в кого-то отдалённо на вас похожего. Выражения плывут, голова уходит от исходной геометрии, в длинном видео идентичность рассыпается полностью. Avatar V решает эту проблему на уровне архитектуры модели. Система обучена на 10 млн. дата-поинтов и впервые разделила перформанс (движение, мимика) и внешность (одежда, фон) как два независимых параметра. В результате один 15-секундный ролик даёт нам базу, из которой дальше бе
Оглавление

Пятнадцать секунд. Именно столько нужно снять на телефон, чтобы HeyGen Avatar V создал вашего цифрового двойника. Причём это будет уже не сырой концепт вроде того шлака, которым уже второй год переполнен нельзяграм, а вполне себе рабочий инструмент. И этот инструмент уже доступен на Creator-плане за $24 в месяц.

8 апреля 2026 года HeyGen выкатил два релиза подряд, Avatar V и интеграцию Seedance 2.0 через Avatar Shot.

  • Avatar V решает главную проблему AI-аватаров — identity drift, это когда лицо плывёт через двадцать секунд после начала.
  • Avatar Shot с Seedance 2.0 переводит видео из формата говорящая голова в полноценный кинематограф со сменой углов и несколькими персонажами в кадре.
-2

Проблема, которую наконец решили

Все предыдущие генерации AI-аватаров имели одну и ту же проблему. Начинается за здравие, а через двадцать секунд можно выпить за упокой. Аватар превращается в кого-то отдалённо на вас похожего. Выражения плывут, голова уходит от исходной геометрии, в длинном видео идентичность рассыпается полностью.

Avatar V решает эту проблему на уровне архитектуры модели. Система обучена на 10 млн. дата-поинтов и впервые разделила перформанс (движение, мимика) и внешность (одежда, фон) как два независимых параметра.

В результате один 15-секундный ролик даёт нам базу, из которой дальше без пересъёмок генерируются разные луки. Записались один раз в пижаме, и дальше появляетесь в деловом костюме, в кэжуал, на белом фоне, на фоне офиса в Токио, с максимальной консистентностью черт лица. И всё из одной записи, Карл.

Creative AI News опубликовал бенчмарк Face Similarity. Avatar V там показал 0,840 против 0,714 у Google Veo 3.1. Это единственный публичный сравнительный тест на сегодня, без peer review*, но методология прозрачная.

Cравнение качества Avatar V vs предыдущие версии — side-by-side скриншот из официального блога HeyGen. Источник: heygen.com/blog/announcing-avatar-v
Cравнение качества Avatar V vs предыдущие версии — side-by-side скриншот из официального блога HeyGen. Источник: heygen.com/blog/announcing-avatar-v
* Peer review (пир-ревью) — это процедура экспертной оценки научных статей, проектов или кода специалистами, работающими в той же области. Её цель — проверить достоверность, значимость и качество работы перед публикацией или внедрением.

Картина по отзывам экспертов как всегда делится чётко пополам. Качество хвалят, ценообразование ругают.

AI Discoveries после теста на 3800 словах зафиксировали, что для инфобиза, обучающих модулей и продуктовых демо это лучший вариант в своём ценовом сегменте на сегодня.

G2 вообще дали HeyGen звание #1 Fastest Growing Product 2025. Ещё бы, за сервис платят более 100.000 бизнесов, среди клиентов Zoom, SAP, Reuters.

Но два ограничения все таки нашлись.

  • Первое: эмоциональный диапазон обрывается спустя 90 секунд. В корпоративном нейтральном регистре работает хорошо, в эмоциональной рекламе и сторителлинге не очень.
  • Второе: кредитная система.

Каждая минута Avatar V съедает 20 Premium Credits. На Creator-плане за $29/мес вам положено 200 кредитов, которых хватит примерно на 10 минут топовой модели за месяц. Один 90-секундный ролик стоит около 30 кредитов. И каждый рендер списывается независимо от того, утвердили вы результат или нет. Если получили нужный результат только с четвертой попытки, значит потратили четыре кредита.

Creator-план заявлен как unlimited videos, но этот самый "unlimited" относится только к стандартным аватарам, но никак не к Avatar V.

ChatGate.ai собрали отзывы с G2 и Trustpilot, и там уже набралась недурная пачка жалоб даже у пользователей, в целом, довольных качеством.

Avatar Shot + Seedance 2.0. Совершенно другой продукт

Параллельный релиз Seedance 2.0 × HeyGen в корне меняет формат выходного продукта. Раньше аватар стоял перед условной камерой. Теперь он ходит по сцене, поворачивается, взаимодействует с окружением, появляется с другим персонажем в кадре.

Всё это работает через Video Agent. Достаточно переключить тумблер Seedance, ввести промпт, и система сгенерирует кинематографические кадры с вашим двойником в главной роли. Можно задать стиль, управлять первым и последним кадром, добавить второго персонажа.

Ребята из Canadian Technology Magazine поделились тестом промпта про обновление алгоритма TikTok на живом кейсе.

По поводу доступности: Avatar Shot с Seedance 2.0 работает только за пределами США и Японии и только с корпоративным email. Gmail и Yahoo не проходят верификацию, нужен домен бизнеса. HeyGen единственная платформа, где Seedance 2.0 вообще работает с реальными человеческими лицами. В публичном API ByteDance лица не разрешены, и геоблок часть этой юридической конструкции.

-4

Кому это нужно, а кому нет

Инструмент работает там, где нужен объём и консистентность. Онбординговые видео, обучающие модули, продуктовые демо, email-вставки с видеоперсонажем. Всё это один аватар, один голос и бесконечное количество скриптов. Creator-план за $24/мес против $200–500 за ролик видеографа: математика в вашу пользу уже на втором-третьем видео.

Если вам нужна глобальная дистрибуция — это главный аргумент в пользу HeyGen вообще. Один английский ролик конвертируется в нативные версии для Германии, Бразилии, Японии с синхронизированными губами и клонированным голосом. Один спикер покроет сразу 175 рынков.

Где не подходит: TikTok и Reels с высокой энергетикой.

EzUGC высказались, что аватар не оправдал их ожиданий после теста быстрого TikTok-скрипта. Плюс ко всему у HeyGen нет таймлайна, как у видеоредакторов — это всего лишь скриптовый рендерер. Если вам нужны склейки и ритмичный монтаж, придется осваивать CapCut или DaVinci и доделывать там.

Что не проверено

Avatar V вышел 8 апреля. Большинство публичных тестов больше похожи на рекламные обзоры на основе пресс-релиза или честные тесты предыдущего Avatar IV. Независимых side-by-side с реальными пользователями пока единицы. TechCrunch, The Verge, VentureBeat вообще релиз не покрыли, что совершенно нетипично для анонса такого масштаба.

Главной ошибкой будет смотреть на это как на очередной сервис.

Avatar V и Seedance 2.0 вместе — это новый слой в операционке человека, который производит контент.

Раньше видеопродакшн требовал либо вашего времени перед камерой, либо чужих денег за съёмку. Теперь вы записываетесь один раз и получаете постоянный видеопрезентер, который масштабируется без вашего участия. Это структурный сдвиг в подходе к построению систем контента.


Мы с командой уже провели первые тесты. И только более детальные тесты помогут понять, можно ли встраивать Avatar V в рабочие процессы без оговорок, или модель всё ещё сыровата. И конечно, с вами будем всем делиться в первую очередь.

Перед оплатой рекомендуем обратить внимание, сколько минут Avatar V входит в ваш план. На Creator-плане, например, это лишь 10 минут в месяц, а не безлимит, как вы могли прочитать на сайте...