Что важно: - 🧠 1T MoE, но активно только 63B параметров — высокая эффективность без огромных затрат - ⚡ Hybrid Linear архитектура - до 10× меньше памяти - до 3× выше throughput на длинном контексте - 📊 Gold-tier reasoning - IMO25: 35/42 - CMO25: 105/126 - 🤖 Agent-native - совместим с Claude Code, OpenClaw, SGLang - ⏱️ Long-horizon способности - автономно собрал 32-битную операционную систему за 2 часа Это уже не просто LLM. Это модели, которые: - планируют на длинные горизонты - работают как автономные агенты - пишут сложные системы без постоянного контроля Model: https://modelscope.cn/models/inclusionAI/Ring-2.5-1T GitHub: https://github.com/inclusionAI/Ring-V2.5
🚀 Ring-2.5-1T — первый гибридный linear thinking-модель на 1 триллион параметров
14 февраля14 фев
17
~1 мин