Команда ByteDance и Наньянского технологического университета разработала систему StoryMem для стабилизации ИИ-видео между сценами. Метод хранит ключевые кадры из предыдущих сцен и использует их при генерации новых, чтобы персонажи и окружающая среда не менялись случайно. Современные ИИ-модели видео, такие как Sora, Kling и Veo, хорошо работают с короткими роликами, но при соединении нескольких сцен часто возникают проблемы — персонажи и детали “плывут”, меняются внешне, а мир вокруг выглядит неравномерно. По словам исследователей, стандартные решения были неэффективны. Генерация всех сцен сразу требует слишком много вычислительных ресурсов. Отдельная генерация и последующее объединение рушит целостность. StoryMem использует иной подход: во… Подробнее
Искусственный интеллект StoryMem решает проблему смены образов героев
3 января3 янв
~1 мин