Найти в Дзене
Vibecode Wiki

GLM-5 вышла: мощная open-source модель, которая уже бьёт рекорды в программировании и агентских задачах

Привет, 12 февраля 2026 года китайская компания Z.ai (Zhipu AI) выпустила свою новую флагманскую модель — GLM-5. Это не просто очередной релиз, а реальный шаг вперёд для всех, кто работает с ИИ в разработке. Модель специально сделали под сложные задачи: долгосрочное планирование, агентскую инженерию и создание целых систем. По сути, переход от «просто пиши код» к «ИИ сам строит проект шаг за шагом». Самое крутое — они добавили DeepSeek Sparse Attention. Благодаря этому запуск модели стал в 6–10 раз дешевле, чем у аналогов, при сохранении качества. На SWE-bench Verified (реальные задачи программирования) — 77,8%.
Это один из лучших показателей среди всех open-source моделей и очень близко к топовым закрытым (Claude Opus 4.5). Плюс сильные результаты в длинных агентских сценариях, Terminal-Bench и BrowseComp. Я уже запустил несколько тестов на рефакторинге и создании многофайловых проектов — планирует логично, держит контекст отлично, код пишет чисто и последовательно. Полный разбор мо
Оглавление
glm-5 опен сорс модель
glm-5 опен сорс модель


Привет,

12 февраля 2026 года китайская компания Z.ai (Zhipu AI) выпустила свою новую флагманскую модель — GLM-5. Это не просто очередной релиз, а реальный шаг вперёд для всех, кто работает с ИИ в разработке.

Модель специально сделали под сложные задачи: долгосрочное планирование, агентскую инженерию и создание целых систем. По сути, переход от «просто пиши код» к «ИИ сам строит проект шаг за шагом».

Что получилось у ребят из Z.ai

  • 744 миллиарда параметров всего, 40 миллиардов активных (MoE-архитектура)
  • Обучена на 28,5 триллионах токенов
  • Контекст до 205 тысяч токенов
  • Очень низкий уровень галлюцинаций (один из лучших на рынке)
  • Полностью обучена на китайских чипах Huawei Ascend (без американских технологий)
  • Открытая лицензия MIT — можно использовать бесплатно и в коммерческих проектах

Самое крутое — они добавили DeepSeek Sparse Attention. Благодаря этому запуск модели стал в 6–10 раз дешевле, чем у аналогов, при сохранении качества.

Результаты, которые впечатляют

На SWE-bench Verified (реальные задачи программирования) — 77,8%.
Это один из лучших показателей среди всех open-source моделей и очень близко к топовым закрытым (Claude Opus 4.5).

Плюс сильные результаты в длинных агентских сценариях, Terminal-Bench и BrowseComp.

Где попробовать прямо сейчас

  • Бесплатно в чате: https://chat.z.ai (работает даже из России без прокси)
  • Через API на z.ai
  • Локально: Hugging Face, Ollama, MLX (для Mac) и оптимизированные GGUF-версии

Я уже запустил несколько тестов на рефакторинге и создании многофайловых проектов — планирует логично, держит контекст отлично, код пишет чисто и последовательно.

Полный разбор модели, все бенчмарки, сравнения и мои первые впечатления после тестов — читай в большой статье на VibeCode:

👉 https://vibecode.morecil.ru/ru/новости/glm5-novaya-flaganskay-model-ii/

А ты уже успел попробовать GLM-5?

Напиши в комментариях:
— Какая open-source модель сейчас твоя основная?
— Хочешь отдельный пост со сравнением GLM-5 vs Claude 4.5 vs DeepSeek?

Если материал зашёл — ставь ❤️ и подписывайся. Продолжаю следить за свежими ИИ-релизами и делиться только тем, что реально работает.