🧠 OpenAI представила Sora 2 — первую систему, где видео и аудио генерируются одновременно. Это устраняет проблему рассинхронизации, свойственную прежним решениям, когда картинка и звук создавались разными моделями и сводились вручную. В отличие от первой версии, Sora 2 использует единую модель для генерации видео и аудио, что позволяет добиваться точной синхронизации движений, звуков и диалогов. Система не просто «добавляет звук», а симулирует физическую среду — от свиста чайника до шороха шагов. Мультимодальная архитектура делает модель пригодной для создания коротких фильмов, рекламных роликов и обучающих материалов без необходимости постобработки. Этот подход устраняет задержки и неточности, которые были типичны для pipeline-систем. API Sora 2 работает через REST-endpoint /v1/videos и поддерживает текстовые промты и референсные изображения, что облегчает контроль композиции и стиля.
Биллинг посекундный: Для доступа требуется платный аккаунт OpenAI уровня Tier 1 и выше.
Базовый лими