Китайцы из Moonshot AI выкатила обнову для своей модельки — Kimi K2.5. Что получилось интересного? 1️⃣ Visual Agentic Intelligence Мы привыкли, что LLM читает код. K2.5 — смотрит на результат выполнения. Модель натренирована на 15T токенов (смесь текста и визуала). В чем киллер-фича? Visual Debugging. Ты просишь сделать UI. Модель пишет код, рендерит его, видит, что кнопка уехала на 5 пикселей или анимация дергается, и сама правит код, основываясь на визуальном инпуте. Можно скидывать скрины багов или диаграммы архитектуры, и модель будет понимать контекст лучше, чем раньше. 2️⃣ Agent Swarm: Рой вместо солиста Вот это уже серьезно. K2.5 умеет спавнить до 100 саб-агентов под одной задачей. Это не последовательная цепочка (Chain-of-Thought), где ошибка на шаге 1 ломает всё. Это параллельное выполнение. Как это выглядит на практике: Вы даете задачу: "Проанализировать легаси-модуль, написать тесты и отрефакторить под новый API". Оркестратор (главный агент) делит задачу и запускает рой: