ZAI представила GLM-4.7 Flash – облегченную версию своей флагманской модели GLM-4.7. Эта модель, содержащая 30 миллиардов параметров и поддерживающая контекст в 128 тысяч токенов, построена на архитектуре Mixture of Experts (MoE) и ориентирована на локальный запуск без необходимости использования крупных серверных мощностей. Разработчики стремятся преодолеть разрыв между компактными SLM-моделями и мощными, но проприетарными аналогами. GLM-4.7 Flash должна обеспечить передовой уровень производительности в задачах кодирования и при работе с агентами, оставаясь при этом доступной для использования на локальной инфраструктуре. Архитектура MoE позволяет модели казаться легче, чем она есть на самом деле. Хотя модель формально содержит 30 миллиардов параметров, количество активных параметров на токен значительно меньше – около 3 миллиардов, по оценкам сообщества. Это означает, что вычислительная нагрузка сопоставима со средними моделями, но при этом сохраняется широта мышления, характерная дл