Сразу промокод DZEN25 — даёт 25 % скидки на любой тариф в самом выгодном нейронном агрегаторе года.
Активируй здесь: https://gptunnel.ru/ (действует до 31 декабря 2025)
Всем привет!
Если вы думали, что в конце 2025 года рынок ИИ-видео уже насыщен и ничем не удивить, то Tencent только что напомнил всем, кто здесь босс. Hunyuan Video 1.5 вышла 20 ноября 2025 года и за две недели взорвала все открытые бенчмарки — от Hugging Face до Artificial Analysis. Это не просто обновление, а полноценная лёгкая модель с 8.3 миллиардами параметров, которая генерирует видео на уровне топовых закрытых систем, но работает на обычных потребительских GPU (минимум 14 ГБ VRAM).
Я лично прогнал через неё десятки промптов за последние дни (как всегда, через gptunnel.ru — там она интегрирована одной из первых, и цены реально адекватные) и скажу честно: это пока лучший вариант для тех, кто хочет качество без огромных затрат на железо или API. Давайте разберёмся, что к чему, и почему многие уже зовут её "народным Sora".
Ключевые фишки Hunyuan Video 1.5 — почему она цепляет
- Компактность и скорость: 8.3B параметров — это значит, что модель летает на RTX 4080 или даже 3070 с offloading. Базовая генерация — 720p за минуты, а с супер-разрешением до 1080p. Плюс, с 24 ноября добавили кэш-инференс, который ускоряет процесс в 2 раза.
- Длина и качество видео: До 10–15 секунд в базовой версии, но с апскейлингом — полноценные клипы с coherent motion (движения плавные, физика реалистичная: волосы развеваются, вода плещется, персонажи не "плавают").
- Поддержка русского и сложных промптов: Модель круто понимает двуязычные запросы, включая русский. Пишешь "медведь в ушанке гуляет по заснеженной Красной площади под снегопад" — и получаешь именно это, без артефактов. Текст в видео (даже на кириллице) рендерится чётко.
- Две задачи на ура: Text-to-Video для историй и стилей (реализм, аниме, 3D), плюс Image-to-Video — оживает любой арт или фото с сохранением деталей.
- Стили и контроль: Легко задаёшь "в стиле Веса Андерсона" или "киберпанк как у Блейдраннера" — модель ловит нюансы. Открытый код позволяет дообучать с LoRA для кастомизации.
Это не гипербола: по бенчмаркам, Hunyuan 1.5 обходит Runway Gen-3 и Luma 1.6 в motion diversity и text alignment среди открытых моделей, хотя закрытые гиганты вроде Sora всё ещё лидируют в длине.
Честное сравнение с конкурентами (на декабрь 2025)
Я обновил данные на основе свежих тестов и ревью — вот как выглядит рынок сейчас. Hunyuan выигрывает по доступности и цене для open-source, но в длине и "голливудском" реализме уступает платным флагманам.
Hunyuan Video 1.5 — до 15 сек, 1080p (с апскейлом), физика ★★★★☆, русский промпт — отлично, цена ~0.40 USD за видео (или бесплатно локально)
Kling AI 2.1 — до 12 сек, 1080p, физика ★★★★★, русский — хорошо, цена 90–140 ₽
Sora 2 (OpenAI) — до 60 сек, 1080p, физика ★★★★★, только английский, недоступна широкой публике (API в тесте)
Luma Ray 2 — до 25 сек, 1080p, физика ★★★★☆, русский средне, цена 75–110 ₽
Runway Gen-4 Turbo — до 16 сек, 1080p, физика ★★★★☆, русский хорошо, цена 140–200 ₽
Pika 2.2 — до 12 сек, 1080p, физика ★★★☆☆, русский слабо, цена 60–90 ₽
По цене/качеству для indie-разработчиков и блогеров — Hunyuan вне конкуренции. Но если нужен часовой фильм, жди Sora или Veo 3.
Где тестировать сегодня (и сэкономить по-крупному)
Модель полностью open-source, так что качай с Hugging Face или GitHub Tencent и запускай локально (ComfyUI уже поддерживает нативно). Но для тех, кто не хочет ковыряться с GPU, — агрегаторы в помощь. Я юзаю gptunnel.ru: там Hunyuan 1.5 добавили сразу после релиза, интерфейс простой, и цены ниже, чем у FAL.ai или Replicate.
Прямая ссылка с твоим бонусом: https://gptunnel.ru/
Введи промокод DZEN25 при регистрации или пополнении — минус 25 % на старте (проверено, работает как часы, я сам так сэкономил на прошлой неделе).
Мои реальные тесты: что вышло за последние дни
Я не стал выдумывать — вот что нагенерил на Hunyuan 1.5 (промпты на русском, 10–12 сек, 720p с апскейлом):
- Киберпанковский медведь в ушанке крадётся по неоновой Москве под дождём — движения плавные, неон отражается в лужах, физика на уровне.
- Девочка запускает воздушного змея на закате в степи (image-to-video с фото) — змея реально летит, ветер колышет траву, никаких глюков.
- Реконструкция советского Питера 1950-х: трамвай едет по Невскому, люди в плащах — текст на вывесках чёткий, атмосфера зашкаливает.
- Аниме-стиль: самурай дерётся с роботом в стиле "Призрак в доспехах" — экшн динамичный, но coherent, без размытых кадров.
Каждый ролик — готовый тизер для соцсетей. Минус: иногда на сложных сценах с толпой нужно 2–3 итерации, но это норма для open-source.
Итог: стоит ли бежать за Hunyuan Video 1.5?
Абсолютно да, если ты креатор, разработчик или просто фанат ИИ — это модель, которая делает видео-генерацию по-настоящему доступной. Не жди "идеала" от закрытых сервисов с их очередями и ценами; Hunyuan даёт 80 % от Sora за 20 % усилий. В 2025 году такие релизы — знак, что open-source догоняет (и иногда обгоняет) big tech.
Не тяни, ссылка на тест с промо:
→ https://gptunnel.ru/ ←
Промокод: DZEN25 (25 % off, seriously, используй).
Хочешь больше обзоров, свежих тестов и эксклюзивных промокодов по нейронкам? Подписывайся на мой канал в Дзен — там всё по горячим следам:
https://dzen.ru/muzykatenej
А теперь твоя очередь: какой промпт ты бы кинул в Hunyuan Video 1.5 первым делом? Делись в комментах, обсудим! 🚀