🚀 Еще недавно казалось, что будущее ИИ — за гигантскими нейросетями на сотни миллиардов параметров. Но весна 2026 года окончательно закрепила новый тренд: на сцену вышли модели среднего размера (30B параметров). Они показывают невероятные результаты в бенчмарках, но при этом способны работать локально на доступном железе. Два главных героя этой весны, которые заставили индустрию пересмотреть свои подходы: ⌨️ Gemma-4-31B от Google Плотная (dense) модель на 31 млрд параметров, которая с легкостью теснит гигантов. ▪️ На лидерборде Arena AI она обходит модели, которые в 10–20 раз больше её по размеру. ▪️ Обладает встроенным «режимом размышления» и огромным окном контекста на 256K токенов. ▪️ Идеально подходит для сложных агентских сценариев, работы с кодом и документами. ⌨️ Qwen3.6-35B-A3B от Alibaba Настоящий прорыв в оптимизации архитектуры Mixture-of-Experts (MoE). ▪️ Из 35 млрд параметров при генерации каждого токена активируется всего 3 млрд! Это обеспечивает колоссальную скорость
⭐️ Эпоха «компактных гигантов»: почему бизнес переходит на модели класса 30B
20 апреля20 апр
1 мин