Привет! Хочу рассказать об удивительной модели OmniHuman-1 от ByteDance. К сожалению, о ней пока не так много информации в сети, и я спешу восполнить этот пробел, ведь технология действительно впечатляет!
Смотрите сами:
ByteDance (да-да, те самые ребята, которые создали TikTok) представили модель, которая реально поражает своими возможностями 🤯
OmniHuman-1 умеет невероятно точно имитировать человеческие эмоции, движения и жесты. Представляете, она может создать реалистичное видео просто из одной фотографии! А если добавить аудио или видео – результат вообще превосходит все ожидания.
Помните, как год назад у многих AI были проблемы с правильным отображением пальцев? Здесь этого нет – всё выглядит абсолютно естественно! Модель великолепно справляется с:
• Естественными лицевыми выражениями
• Точной синхронизацией движений губ (lip sync)
• Реалистичными вокальными номерами
• Корректным взаимодействием рук с предметами
• Отображением профильных ракурсов
• Групповыми музыкальными сценами
Особенно радует, что алгоритм отлично работает даже когда какие-то предметы частично закрывают лицо – например, при пении в микрофон.
Кстати, есть надежда, что проект станет open source! Держим кулачки за это 🙌
Официальный пресс-релиз (на английском, и там еще больше примеров видео)
Делитесь вашими впечатлениями в комментариях!