Добавить в корзинуПозвонить
Найти в Дзене
PythonTalk

MiniMax-M1: когда эффективность важнее размера

MiniMax-M1: когда эффективность важнее размера Китайцы из MiniMax выкатили MiniMax-M1 — открытую гибридную модель для сложных задач. Что под капотом: 👉🏻 Контекст 1M токенов. Это в 8 раз больше, чем у DeepSeek R1. Можно скармливать целые книги. 👉🏻 Гибридная архитектура. Смесь из MoE (Mixture-of-Experts) и механизма lightning attention. Если по-простому: модель не задействует все свои 456 млрд параметров сразу, а умно выбирает нужные, экономя ресурсы. 👉🏻 Дикая эффективность. На генерации длинных текстов (100k токенов) жрёт в 4 раза меньше вычислений (FLOPs), чем тот же DeepSeek R1. 👉🏻 Хороша в деле. На сложных задачах по разработке (SWE-bench) и работе с длинным контекстом обходит Qwen3 и DeepSeek R1. Короче, очередное доказательство, что пока одни продают вам доступ к API по цене крыла самолёта, другие молча пилят опенсорс, который можно развернуть у себя и который не требует для работы собственной электростанции. Изучать можно на GitHub, а бесплатный чат — здесь.

MiniMax-M1: когда эффективность важнее размера

Китайцы из MiniMax выкатили MiniMax-M1 — открытую гибридную модель для сложных задач.

Что под капотом:

👉🏻 Контекст 1M токенов. Это в 8 раз больше, чем у DeepSeek R1. Можно скармливать целые книги.

👉🏻 Гибридная архитектура. Смесь из MoE (Mixture-of-Experts) и механизма lightning attention. Если по-простому: модель не задействует все свои 456 млрд параметров сразу, а умно выбирает нужные, экономя ресурсы.

👉🏻 Дикая эффективность. На генерации длинных текстов (100k токенов) жрёт в 4 раза меньше вычислений (FLOPs), чем тот же DeepSeek R1.

👉🏻 Хороша в деле. На сложных задачах по разработке (SWE-bench) и работе с длинным контекстом обходит Qwen3 и DeepSeek R1.

Короче, очередное доказательство, что пока одни продают вам доступ к API по цене крыла самолёта, другие молча пилят опенсорс, который можно развернуть у себя и который не требует для работы собственной электростанции.

Изучать можно на GitHub, а бесплатный чат — здесь.