Найти в Дзене
Цифровая Переплавка

GLM-4.5: Китайский ответ в гонке больших моделей

Когда речь заходит о крупных языковых моделях, на слуху обычно остаются западные имена — OpenAI, Anthropic, Google. Но в последние месяцы Китай всё активнее заявляет о себе на мировом рынке, и свежий релиз GLM-4.5 от Z.AI — это как раз пример такой «догоняющей, но местами и обгоняющей» стратегии. GLM-4.5 выглядит внушительно: 355 млрд параметров, из которых активно используется только 32 млрд. Это достигается благодаря архитектуре Mixture of Experts (MoE), где модель динамически выбирает, какие «эксперты» будут участвовать в решении задачи. Такой подход уже становится трендом: MoE позволяет одновременно уменьшать вычислительные затраты и не терять качество. Интересно, что Z.AI явно ориентируется на реальные задачи, а не только на красивые бенчмарки. Поддержка режима Thinking (по сути — аналог внутреннего цепочного рассуждения) даёт возможность более сложного анализа и планирования. Причём включается это всего лишь параметром thinking.type=enabled. Тут разработчики сделали ход конём: Со
Оглавление

Когда речь заходит о крупных языковых моделях, на слуху обычно остаются западные имена — OpenAI, Anthropic, Google. Но в последние месяцы Китай всё активнее заявляет о себе на мировом рынке, и свежий релиз GLM-4.5 от Z.AI — это как раз пример такой «догоняющей, но местами и обгоняющей» стратегии.

🚀 Технический прорыв или гонка вооружений?

GLM-4.5 выглядит внушительно: 355 млрд параметров, из которых активно используется только 32 млрд. Это достигается благодаря архитектуре Mixture of Experts (MoE), где модель динамически выбирает, какие «эксперты» будут участвовать в решении задачи. Такой подход уже становится трендом: MoE позволяет одновременно уменьшать вычислительные затраты и не терять качество.

Интересно, что Z.AI явно ориентируется на реальные задачи, а не только на красивые бенчмарки. Поддержка режима Thinking (по сути — аналог внутреннего цепочного рассуждения) даёт возможность более сложного анализа и планирования. Причём включается это всего лишь параметром thinking.type=enabled.

💸 Ценообразование и скорость

Тут разработчики сделали ход конём:

  • 💵 Стоимость — $0.2 за миллион входных токенов и $1.1 за миллион выходных. Это значительно дешевле конкурентов.
  • Скорость — свыше 100 токенов в секунду, что особенно важно для высоконагруженных сервисов.

Сочетание низкой цены и высокой скорости может стать критическим преимуществом. Если смотреть с позиции стартапа — это шанс построить продукт с полноценным LLM-ядром, не сжигая весь бюджет на API-вызовах.

🧑‍💻 Интеграция с агентами и кодом

Особое внимание уделено задачам разработки:

  • 🔧 Поддержка вызова внешних инструментов.
  • 💻 Дообучение на коде и инженерных задачах.
  • 🧩 Возможность интеграции с Claude Code и аналогами.

Это подтверждает главный тренд: будущее LLM — не просто чат-боты, а агенты, которые умеют использовать внешние сервисы и API. По сути, GLM-4.5 подталкивает рынок к массовой автоматизации работы разработчиков.

🌍 Личное мнение

Для меня главное в этой новости — не то, что появилась ещё одна «большая модель». Таких релизов будет десятки. Важнее, что Z.AI сделала ставку на практичность: скорость, цена, удобные API и ориентация на реальных разработчиков. В отличие от многих конкурентов, которые гонятся за сухими лидербордами, китайцы явно хотят создать рабочий инструмент.

Кроме того, приятно видеть развитие открытой экосистемы: GLM-4.5 занимает первое место среди открытых моделей, что даёт исследователям и компаниям свободу, которой часто не хватает в закрытых западных API.

Если подумать стратегически, то такие шаги могут привести к новому балансу сил в AI-индустрии. Не исключено, что через пару лет мы будем обсуждать не «OpenAI против Anthropic», а «Z.AI против всего мира».

🔗 Источники: