Когда речь заходит о крупных языковых моделях, на слуху обычно остаются западные имена — OpenAI, Anthropic, Google. Но в последние месяцы Китай всё активнее заявляет о себе на мировом рынке, и свежий релиз GLM-4.5 от Z.AI — это как раз пример такой «догоняющей, но местами и обгоняющей» стратегии. GLM-4.5 выглядит внушительно: 355 млрд параметров, из которых активно используется только 32 млрд. Это достигается благодаря архитектуре Mixture of Experts (MoE), где модель динамически выбирает, какие «эксперты» будут участвовать в решении задачи. Такой подход уже становится трендом: MoE позволяет одновременно уменьшать вычислительные затраты и не терять качество. Интересно, что Z.AI явно ориентируется на реальные задачи, а не только на красивые бенчмарки. Поддержка режима Thinking (по сути — аналог внутреннего цепочного рассуждения) даёт возможность более сложного анализа и планирования. Причём включается это всего лишь параметром thinking.type=enabled. Тут разработчики сделали ход конём: Со