Привет, друзья! Если вы хоть немного интересуетесь нейросетями, то наверняка уже слышали, что OpenAI готовит что-то по-настоящему страшное (в хорошем смысле). Первая Sora, которую показали в феврале 2024 года, до сих пор остаётся эталоном генерации видео из текста. А теперь, к концу 2025 года, всё громче говорят про OpenAI Sora 2 — модель, которая, судя по утечкам, сделает всё, что мы видели раньше, просто детским лепетом.
Я слежу за этой темой каждый день, собираю крохи информации из твиттера, реддита, закрытых чатов разработчиков и внутренних билдов. И сегодня расскажу вам всё, что удалось узнать на 24 ноября 2025 года.
Откуда вообще взялась информация про Sora 2?
Официально OpenAI пока молчит как партизан. На сайте всё ещё висит просто «Sora», без цифры 2. Но внутри компании работа кипит уже больше полугода.
Первые намёки появились ещё летом 2025 года — в вакансиях OpenAI начали писать про «next-generation video foundation model» и «киношное качество на длине более 5 минут». Потом в сентябре Сам Альтман в подкасте обронил: «Мы почти готовы показать видео, которое вы не отличите от снятого на RED камеру. Скоро». А в октябре один из инженеров OpenAI выложил (и тут же удалил) 12-секундный ролик ночного Токио с подписью «Sora-2 internal build v0.47». Видео успели сохранить — детализация просто запредельная: отражения в лужах, неон, дым от люков, волосы девушки развеваются по ветру так, что мурашки.
Главные фичи, которые ждут в OpenAI Sora 2
Вот список того, что обсуждается в сообществе и подтверждается косвенными доказательствами:
1. Длина видео до 10 минут в одном промпте
Сейчас максимум — 60 секунд, и то качество к концу падает. В Sora 2 обещают настоящий long-context: ты сможешь написать сценарий короткометражки на 7–8 минут, и модель удержит всех персонажей, стиль и сюжет от начала до конца.
2. Нативные 4K 60 fps и даже 8K для статичных сцен
Первая версия максимум 1080p. В новой — 4K будет базовым, а для пейзажей и архитектуры — 8K. Это уже уровень, когда видео можно грузить на YouTube и никто не догадается, что оно сгенерировано.
3. Физика мирового уровня
OpenAI наняла нескольких физиков из игровых студий (да, из тех, кто делал GTA и Cyberpunk). Теперь жидкости, ткань, волосы, дым, огонь — всё ведёт себя максимально реалистично. В утечках есть ролик, где человек разбивает стеклянную бутылку о стену — осколки летят абсолютно правдоподобно.
4. Эмоции и мимика нового уровня
Лица больше не будут «пластиковыми». Модель обучали на миллионах часов видео с 3D-сканами лиц и высокоскоростной съёмкой. Теперь персонаж может грустить, иронически улыбаться, моргать в нужный момент — всё выглядит как живой актёр.
5. Полный контроль над камерой
Можно будет писать: «круговой облёт на 360 градусов со скоростью 12 градусов в секунду», «долли-зум как в «Головокружении» Хичкока», «движение дрона по кривой Безье с ускорением на 40%». Камера будет слушаться как профессиональный оператор.
6. Стилизация под любого режиссёра или эпоху
«В стиле Уэса Андерсона», «как старое зернистое кино 70-х», «аниме в духе Макото Синкая», «киберпанк как у Ридли Скотта» — и модель поймёт идеально.
7. Звук (да, уже со звуком!)
Самый громкий слух: Sora 2 будет генерировать синхронный звук — шаги, ветер, шум дождя, голоса персонажей. Пока неясно, встроят ли они свой AudioCraft или сделают интеграцию с ElevenLabs, но в утечках уже есть ролики, где люди говорят, и губы идеально совпадают с речью.
Когда ждать релиз OpenAI Sora 2?
Сам Альтман на закрытой встрече в начале ноября (запись утекла) сказал: «Что-то очень крутое покажем до Нового года». Большинство аналитиков ставит на 17–19 декабря 2025 — это традиционное окно OpenAI перед праздниками.
Скорее всего, схема будет такая же, как с первой Sorой:
- Сначала доступ для «красной команды» и безопасности
- Потом избранным креаторам (тем, у кого уже есть доступ к текущей Sora)
- Затем через API (цена, скорее всего, $0.08–$0.15 за секунду 4K)
- И только потом, возможно, в ChatGPT Plus/Pro
Сколько будет стоить?
Точной информации нет, но первая Sora сейчас стоит около $0.03–$0.05 за секунду 1080p. Новая модель тяжелее в разы, поэтому цена может вырасти до $0.10–$0.20 за секунду в 4K. Главное — как и раньше, никаких обязательных подписок: заплатил кредитами — получил видео. Платишь только за то, что реально сгенерировал.
Кстати, если вы уже сейчас хотите экспериментировать с самыми свежими моделями видео (Kling 2.1, Runway Gen-3, Luma Dream Machine, Pika 1.5, Veo 2 и т.д.) без десятка разных подписок и по очень приятным ценам — многие сейчас пользуются нейронным агрегатором gptunnel.ru. Там собраны все топовые модели в одном месте, оплата только за использованные токены, никаких абоненток. А по промокоду DZEN25 сейчас дают скидку 25% на первый депозит. Я сам там сижу постоянно — удобно и реально дешевле, чем платить каждому сервису отдельно.
Почему OpenAI Sora 2 — это не просто «ещё одна модель»
Это потенциальный конец целых профессий и одновременно начало новой эры:
- Инди-режиссёры смогут снимать полнометражки за неделю и $15 000 вместо миллионов
- Рекламные ролики будут делать за часы, а не за недели
- YouTube и TikTok заполнятся контентом, который физически невозможно снять
- Образование: исторические реконструкции, где Цезарь говорит на современном русском
- Игры: кат-сцены и даже целые миры, генерируемые на лету
Конечно, будут и проблемы: deepfake на стероидах, авторское право (чей стиль можно копировать?), рабочие места операторов, актёров, монтажёров. OpenAI это понимает и обещает самые жёсткие фильтры и невидимые водяные знаки.
Конкуренты не спят
Пока OpenAI молчит, остальные рвут рынок:
- Kling 2.1 от Kuaishou уже выдаёт 1080p 30 секунд с потрясающей физикой
- Runway Gen-3 Turbo делает 10 секунд в 4K за пару минут
- Luma Labs обновляет Dream Machine каждые две недели
- Google Veo 2 (показали на I/O 2025) тоже очень силён
Но всё равно именно OpenAI Sora 2 ждут больше всего. Потому что OpenAI умеет делать «вау» лучше всех.
Чего я лично жду больше всего
Как человек, который каждый день генерирует видео для работы и творчества, я жду двух вещей:
- Чтобы длинные видео (5+ минут) наконец-то держали coherentность персонажей и сюжета.
- Чтобы цена осталась хотя бы вменяемой для обычных людей, а не только для студий с бюджетом Netflix.
Если OpenAI это сделает — мы увидим настоящую революцию.
Пока ждём официального анонса, можно уже сейчас тренировать навыки работы с видео-нейросетями. Я, например, всё тестирую через gptunnel.ru — там сейчас самые свежие версии всех моделей, оплата только за то, что реально сгенерировал, и с промокодом DZEN25 первый депозит становится на 25% выгоднее. Удобно, когда не хочется держать 8 разных аккаунтов и подписок.
Вместо заключения
Мы живём в невероятное время. Ещё пару лет назад генерация 5-секундного видео с кошкой была чудом. А через месяц-два мы, скорее всего, увидим, как OpenAI Sora 2 сделает возможным полноценное кино по текстовому описанию.
Как только релиз случится — я сразу напишу подробный обзор с примерами и тестами. Подписывайтесь, чтобы не пропустить!
А пока — экспериментируйте, пробуйте, создавайте. Будущее уже здесь, просто оно пока доступно только тем, кто не боится нажимать кнопки «Generate» :)
До встречи в следующих статьях!
И да, если вдруг решите попробовать самые свежие видео-модели прямо сейчас — загляните на gptunnel.ru, не пожалеете. Промокод DZEN25 всё ещё работает ;)