Добавить в корзинуПозвонить
Найти в Дзене
Алгоритм сегодня

Эволюция открытого ИИ. Lightricks выпускает LTX-2.3 — аудиовизуальную нейросеть, меняющую правила игры

Введение 2026 год ознаменовался важнейшим событием для рынка генеративного искусственного интеллекта. В то время как многие корпорации продолжают делать ставку на закрытые проприетарные системы, израильская компания Lightricks сделала мощный ход в сегменте open-source, выпустив LTX-2.3 — масштабное обновление своей флагманской диффузионной модели (Diffusion Transformer, DiT). LTX-2.3 — это не просто итеративное улучшение. Это комплексная нейросеть с открытыми весами, способная генерировать кинематографическое видео в разрешении 4K (до 50 кадров в секунду) с синхронизированным нативным звуком в один проход. Релиз LTX-2.3 решает фундаментальные проблемы, с которыми сталкивались видеогенераторы предыдущих поколений: «мыльные» текстуры, игнорирование сложных текстовых запросов, нестабильность в режиме Image-to-Video и отсутствие качественного аудио. Благодаря интеграции в популярные среды вроде ComfyUI с первого же дня, модель моментально стала новым стандартом для инди-режиссеров, реклам
Оглавление

Введение

2026 год ознаменовался важнейшим событием для рынка генеративного искусственного интеллекта. В то время как многие корпорации продолжают делать ставку на закрытые проприетарные системы, израильская компания Lightricks сделала мощный ход в сегменте open-source, выпустив LTX-2.3 — масштабное обновление своей флагманской диффузионной модели (Diffusion Transformer, DiT).

LTX-2.3 — это не просто итеративное улучшение. Это комплексная нейросеть с открытыми весами, способная генерировать кинематографическое видео в разрешении 4K (до 50 кадров в секунду) с синхронизированным нативным звуком в один проход. Релиз LTX-2.3 решает фундаментальные проблемы, с которыми сталкивались видеогенераторы предыдущих поколений: «мыльные» текстуры, игнорирование сложных текстовых запросов, нестабильность в режиме Image-to-Video и отсутствие качественного аудио. Благодаря интеграции в популярные среды вроде ComfyUI с первого же дня, модель моментально стала новым стандартом для инди-режиссеров, рекламных агентств и AI-энтузиастов.

Архитектурный скачок: Новый VAE и тотальный контроль над кадром

Главным техническим достижением версии 2.3 стала полная переработка визуального конвейера. Разработчики Lightricks внедрили новую архитектуру вариационного автоэнкодера (VAE) и пересобрали скрытое пространство (latent space), обучив систему на данных сверхвысокого качества.

  • Идеальная детализация: В отличие от предыдущих версий, где мелкие детали «размывались» при сжатии или динамичном движении, LTX-2.3 феноменально сохраняет микротекстуры. Волосы, поры на коже, фактура ткани, текст на вывесках и резкие края объектов остаются кристально четкими даже в сложных сценах.
  • Четырехкратное увеличение текстового коннектора (Gated Attention): Модель получила значительно увеличенный модуль понимания текста. Теперь система не просто улавливает общую суть промпта, но и строго следует сложным инструкциям. Если пользователь описывает сложную мизансцену с указанием таймингов, нескольких персонажей, пространственных отношений и конкретного освещения, LTX-2.3 генерирует именно то, что было запрошено, избавляя от необходимости бесконечно переписывать промпты.

Нативная аудиогенерация: Звук перестает быть «костылем»

До появления линейки LTX создание звука для сгенерированного видео требовало использования сторонних сервисов вроде ElevenLabs или Suno. LTX-2.3 решает эту задачу элегантно и мощно, используя асимметричную двухпоточную архитектуру трансформера (около 14 млрд параметров выделено на видео, и около 5 млрд — на аудио).

Звук генерируется одновременно с визуальным рядом. Обновленный вокодер (Vocoder) на базе HiFi-GAN в версии 2.3 обеспечивает невероятную чистоту аудиосигнала:

  1. Синхронизация губ (Lip-sync): Диалоги идеально совпадают с артикуляцией персонажей.
  2. Шумовые эффекты (Foley): Если в кадре персонаж идет по гравию, зритель слышит хруст камней точно в момент шага.
  3. Окружение: Модель понимает контекст сцены и автоматически накладывает релевантный эмбиент (шум ветра, гул толпы, эхо в пустой комнате).

Пользователи также могут использовать функцию Audio-to-Video, загрузив аудиофайл, под ритм и настроение которого нейросеть сама сгенерирует соответствующий визуальный ряд.

Революция в динамике: Image-to-Video без эффекта «Кена Бернса»

Одной из главных болей создателей AI-контента в режиме анимации статичных изображений (Image-to-Video) было то, что нейросети часто шли по пути наименьшего сопротивления: вместо реальной анимации объектов они просто медленно панорамировали или приближали камеру (так называемый эффект Кена Бернса) или замораживали кадр.

-2

LTX-2.3 кардинально меняет подход к i2v:

  • Глубокое понимание физики: Объекты на исходном изображении получают естественную кинематику. Если на фото птица с раскрытыми крыльями, модель заставит ее взмахнуть ими, сохраняя абсолютную визуальную согласованность с оригиналом.
  • Интерполяция кадров (Keyframing): Версия 2.3 позволяет задать первый и последний кадры. Нейросеть бесшовно сгенерирует сложный переход между ними.
  • Управление камерой: Добавлены строгие параметры для управления виртуальным оператором. Создатель может точно указать: dolly_in, jib_up, pan_left или focus_shift, получая предсказуемый кинематографический пролет.

Кроме того, модель нативно поддерживает портретный режим (9:16). Видео для социальных сетей (TikTok, Reels) теперь генерируется изначально в вертикальном формате без потери качества или необходимости обрезать горизонтальный (16:9) кадр.

Демократизация производства: Open Source и локальный запуск

Самым важным аспектом релиза LTX-2.3 является его доступность. В отличие от закрытых платформ, где пользователи вынуждены платить за каждую генерацию по высоким тарифам и мириться с жесткой цензурой корпораций, Lightricks выложила веса модели в открытый доступ (Open Weights) на Hugging Face.

  • Локальное выполнение (ComfyUI): Модель получила day-0 поддержку в популярном узловом интерфейсе ComfyUI.
  • Оптимизация: Благодаря тесному сотрудничеству разработчиков с NVIDIA и поддержке новых форматов квантования (GGUF, NVFP8), LTX-2.3 можно запускать на потребительских ПК с видеокартами серии RTX. Это снижает требования к VRAM на 40-60% и увеличивает скорость вывода в несколько раз.
  • Экономика API: Для тех, кто предпочитает облачные вычисления, модель доступна через API (на платформах Fal.ai, Replicate, Runware). Благодаря высокой оптимизации, стоимость генерации стала беспрецедентно низкой — около $0.06 за секунду 1080p-видео, что делает профессиональный продакшен доступным даже для инди-разработчиков с минимальным бюджетом.

Заключение

Выход LTX-2.3 весной 2026 года фиксирует важный сдвиг парадигмы в индустрии искусственного интеллекта. Lightricks доказала, что открытые (open-source) модели могут не просто конкурировать с закрытыми коммерческими гигантами, но и превосходить их в гибкости, точности управления и аудиовизуальной интеграции. С появлением инструментов такого уровня, способность создать голливудский блокбастер или высокобюджетный рекламный ролик теперь зависит исключительно от фантазии автора, а не от размера его банковского счета.