Добавить в корзинуПозвонить
Найти в Дзене
Postium

PixVerse выпустила C1 — нейросеть для создания фильмов

PixVerse представила модель C1 — ИИ-модель для кинопроизводства. Добавили управление сложными сценами: связный экшен, генерация видео из раскадровки и сохранение персонажей и окружения между шотами. Модель генерирует видео до 15 секунд в 1080p и сразу добавляет звук. C1 уже доступна в веб-версии PixVerse и через API. Детали — в материале Postium. Читайте также: 20 нейросетей для создания мультфильмов C1 включает несколько ключевых блоков: движок для экшен-сцен, систему визуальных эффектов и генерацию видео по раскадровке. В C1 переработана работа с движением и взаимодействием объектов: сцены с драками, быстрыми перемещениями и столкновениями должны сохранять геометрию и «вес» объектов от кадра к кадру без скачков и деформаций. Отдельно заявлена поддержка сложных эффектов — частиц, освещения, жидкостей и атмосферных сцен. Их можно генерировать в одном процессе, без разрыва между «базовым видео» и постэффектами. Ключевая функция — storyboard-to-video. Модель берёт статичную раскадровку и
Оглавление

PixVerse представила модель C1 — ИИ-модель для кинопроизводства. Добавили управление сложными сценами: связный экшен, генерация видео из раскадровки и сохранение персонажей и окружения между шотами.

Модель генерирует видео до 15 секунд в 1080p и сразу добавляет звук. C1 уже доступна в веб-версии PixVerse и через API. Детали — в материале Postium.

Читайте также: 20 нейросетей для создания мультфильмов

Нейросеть PixVerse C1 — что умеет и как работает

C1 включает несколько ключевых блоков: движок для экшен-сцен, систему визуальных эффектов и генерацию видео по раскадровке.

В C1 переработана работа с движением и взаимодействием объектов: сцены с драками, быстрыми перемещениями и столкновениями должны сохранять геометрию и «вес» объектов от кадра к кадру без скачков и деформаций.

Отдельно заявлена поддержка сложных эффектов — частиц, освещения, жидкостей и атмосферных сцен. Их можно генерировать в одном процессе, без разрыва между «базовым видео» и постэффектами.

Ключевая функция — storyboard-to-video. Модель берёт статичную раскадровку и превращает её в непрерывную видеосцену. Разделение на шоты происходит автоматически по структуре промпта и работает в разных режимах: текст, изображения и сценарии с референсами.

-2

Функция Reference-guided отвечает за консистентность: пользователь задаёт референсные изображения, и модель старается удерживать внешний вид персонажей и сцен между разными планами.

Как пользоваться

— Первый вариант. Загружаешь кадры раскадровки — несколько изображений подряд, каждое как отдельный шот. В том же поле добавляешь текст с описанием сцены: что происходит между кадрами, какое действие, какой темп.

-3

C1 сама читает последовательность, разбивает её на шоты и собирает в один ролик. На выходе — цельная сцена, где кадры переходят друг в друга.

— Второй вариант. Открываешь вкладку «Reference» и загружаешь 1–7 изображений — это якоря для модели. Это могут быть персонажи, лицо, костюм, объект или окружение — всё, что должно повторяться в кадрах.

-4

Дальше в промпте ссылаешься на них (например, @image1), чтобы модель понимала, кого или что нужно держать неизменным.

После этого задаёшь сцену как обычно — текстом или вместе с раскадровкой. Разница в том, что теперь модель не «придумывает заново», а тянет внешний вид из референсов через весь ролик.

Почему это важно? PixVerse уходит от сценария «сгенерировать красивый ролик по промпту» к прикладным задачам. В производстве важно не качество одного кадра, а управляемость всей сцены: чтобы персонажи выглядели одинаково, движение не ломалось, а монтаж не распадался на несвязанные куски.

C1 пытается закрыть именно это. Раскадровка, референсы и акцент на физике — попытка приблизить AI-видео к требованиям превизов, аниматиков и тестовых сцен.

C1 — первая модель PixVerse, позиционируемая именно для film production. До этого компания развивала универсальные генераторы: в линейке есть PixVerse V6 с упором на качество и следование промпту, а также R1 — real-time world model, запущенная в январе 2026 года.

Итог: C1 — попытка превратить ИИ-генератора отдельных клипов в инструмент, который удерживает сцену, персонажей и логику монтажа.

Запись PixVerse выпустила C1 — нейросеть для создания фильмов впервые появилась Postium.