Найти в Дзене
Neurogen

GLM-4.7-Flash

GLM-4.7-Flash 30B-A3B MoE, позиционируется как самая сильная модель в классе 30B и как вариант для лёгкого деплоя без сильной потери в возможностях По таблице на странице модели GLM-4.7-Flash сравнивают с Qwen3-30B-A3B-Thinking-2507 и GPT-OSS-20B. Примеры значений (как указано у авторов): - AIME 25: 91.6 - GPQA: 75.2 - SWE-bench Verified: 59.2 - BrowseComp: 42.8 - τ²-Bench: 79.5 Поддерживается популярными фреймворками инференса, vLLM и SGLang, причём уточняется, что поддержка в main-ветках. Есть команды установки и примеры запуска, а также пример через Transformers (AutoTokenizer / AutoModelForCausalLM) Hugging Face Тех.блог API Чат/демо

В ответ на пост

GLM-4.7-Flash

30B-A3B MoE, позиционируется как самая сильная модель в классе 30B и как вариант для лёгкого деплоя без сильной потери в возможностях

По таблице на странице модели GLM-4.7-Flash сравнивают с Qwen3-30B-A3B-Thinking-2507 и GPT-OSS-20B. Примеры значений (как указано у авторов):

- AIME 25: 91.6

- GPQA: 75.2

- SWE-bench Verified: 59.2

- BrowseComp: 42.8

- τ²-Bench: 79.5

Поддерживается популярными фреймворками инференса, vLLM и SGLang, причём уточняется, что поддержка в main-ветках. Есть команды установки и примеры запуска, а также пример через Transformers (AutoTokenizer / AutoModelForCausalLM)

Hugging Face

Тех.блог

API

Чат/демо