Найти в Дзене
PythonTalk

🤖 Kimi K2.5: Опенсорс отрастил глаза и собрал армию

Китайцы из Moonshot AI выкатила обнову для своей модельки — Kimi K2.5. Что получилось интересного? 1️⃣ Visual Agentic Intelligence Мы привыкли, что LLM читает код. K2.5 — смотрит на результат выполнения. Модель натренирована на 15T токенов (смесь текста и визуала). В чем киллер-фича? Visual Debugging. Ты просишь сделать UI. Модель пишет код, рендерит его, видит, что кнопка уехала на 5 пикселей или анимация дергается, и сама правит код, основываясь на визуальном инпуте. Можно скидывать скрины багов или диаграммы архитектуры, и модель будет понимать контекст лучше, чем раньше. 2️⃣ Agent Swarm: Рой вместо солиста Вот это уже серьезно. K2.5 умеет спавнить до 100 саб-агентов под одной задачей. Это не последовательная цепочка (Chain-of-Thought), где ошибка на шаге 1 ломает всё. Это параллельное выполнение. Как это выглядит на практике: Вы даете задачу: "Проанализировать легаси-модуль, написать тесты и отрефакторить под новый API". Оркестратор (главный агент) делит задачу и запускает рой:

🤖 Kimi K2.5: Опенсорс отрастил глаза и собрал армию

Китайцы из Moonshot AI выкатила обнову для своей модельки — Kimi K2.5.

Что получилось интересного?

1️⃣ Visual Agentic Intelligence

Мы привыкли, что LLM читает код. K2.5 — смотрит на результат выполнения.

Модель натренирована на 15T токенов (смесь текста и визуала).

В чем киллер-фича? Visual Debugging.

Ты просишь сделать UI. Модель пишет код, рендерит его, видит, что кнопка уехала на 5 пикселей или анимация дергается, и сама правит код, основываясь на визуальном инпуте.

Можно скидывать скрины багов или диаграммы архитектуры, и модель будет понимать контекст лучше, чем раньше.

2️⃣ Agent Swarm: Рой вместо солиста

Вот это уже серьезно. K2.5 умеет спавнить до 100 саб-агентов под одной задачей.

Это не последовательная цепочка (Chain-of-Thought), где ошибка на шаге 1 ломает всё. Это параллельное выполнение.

Как это выглядит на практике:

Вы даете задачу: "Проанализировать легаси-модуль, написать тесты и отрефакторить под новый API".

Оркестратор (главный агент) делит задачу и запускает рой:

— Агенты А1-A10: парсят документацию.

— Агенты B1-B20: пишут юнит-тесты.

— Агент C: пытается собрать все это и не сойти с ума.

По их тестам, это сокращает время выполнения (wall-clock time) в 4.5 раза по сравнению с одним агентом.

3️⃣ Kimi Code & Tooling

Они не стали запирать это в чат-бот.

— Работает прямо в терминале и интегрируется в VSCode/Cursor.

— Поддерживает MCP (Model Context Protocol) — значит, можно подцеплять свои инструменты.

— Интеграция с IDE позволяет модели "смотреть" на ваш экран, что возвращает нас к пункту 1.

📊 Бенчмарки

В бенчмарке SWE-Bench Verified (стандарт для AI-программирования) K2.5 показывает результаты на уровне GPT-5.2 и Claude 4.5 Opus.

В задачах Visual Coding (превращение видео/картинки в рабочий код) — заявляют лидерство.

Модель опенсорсная, веса доступны. Подписка на Kimi Code стоит 19 баксов, но мы то вчера в Точке Сборки не зря посмотрели на очень похожий GLM Coding Plan, который в несколько раз дешевле 🌝

-2