73.4% SWE-Bench (лучше DeepSeek-V3 671B!). 309B параметров, 15B активных, 150 t/s, 256K контекст. Бесплатный Claude Sonnet 4.5 уровень — как запустить в Cursor? (see the generated image above) *** Xiaomi не шутит: MiMo-V2-Flash рвёт чарты 16 декабря 2025 Xiaomi сбросила MiMo-V2-Flash — MoE-гиганта с 309B общими параметрами, 15B активных. Не "ещё одна модель", а SOTA кодер 2025: Бенчмарки (реальные): - SWE-Bench Verified: 73.4% (DeepSeek-V3 671B: ~70%) - AIME 2025 (математика): 94.1% (топ-2 open-source) - GPQA-Diamond: Топ-2 среди открытых - LiveBench: 5-е место глобально Ключевое: 15B активных = Claude Sonnet 4.5 мощь, но **150 токенов/сек**! Почему MiMo-V2-Flash = мечта кодера 1. MoE магия: 309B всего, 15B за раз — скорость как у 13B dense 2. Multi-Token Prediction: 3x ускорение (native MTP, не спекулятивка) 3. Hybrid Attention: Sliding Window (128 токенов) + Full (5:1) = 6x меньше KV-cache 4. 256K контекст — весь монолит + доки 5. Agentic RL: 100k+ GitHub issues в post-training Как з