Китайский Kuaishou представил модель Kling Omni One (O1). Это смена парадигмы: первая унифицированная модель, где генерация и монтаж работают на одном движке, а не склеены из разных костылей. ◻️Что умеет: • Контекстный эдитинг: Загружаешь видео и пишешь «замени белое пальто на черную куртку» или «убери людей с фона». Нейросеть сама считывает геометрию сцены и перерисовывает объекты, сохраняя физику и свет. Маски выделять не нужно. • Железобетонная память: Принимает до 7 референсных изображений одновременно. Можно закинуть фото персонажа с разных ракурсов, и модель сохранит его лицо и одежду при смене сцен — киллер-фича для сторителлинга. • Chain-of-Thought: Как и текстовые o1-модели, Kling сначала «обдумывает» логику движения и физику сцены, и только потом генерирует пиксели. ◻️Сравнение с Runway: Runway Gen-3 все еще топ по качеству текстур и «киношности» при генерации с нуля. Kling O1 забирает нишу контроля. Runway — это лотерея с красивой картинкой, Kling O1 — инструмент, где можн
⚡️ Kling выпустил O1 — контекстный нейросетевой видеоредактор
25 декабря 202525 дек 2025
1 мин