Месяц назад я открыл счёт Anthropic за API и тихо ахнул. $217 за Opus. Делал не миллион запросов — обычная неделя с агентным кодингом. Сейчас плачу $10 в месяц, кодю столько же, и квоты ещё остаются. Между этими двумя цифрами — китайцы. Точнее, одна модель: GLM-5.1 от Z.ai, которая работает прямо в Claude Code. Меняешь пять строчек в конфиге — и всё.
Кстати, оплатить Z.ai из России — отдельный квест: рублёвые карты не проходят, нужен телефон Mainland-China, валютники возятся днями. Решил через ServicePAY: оплата за 5 минут, гарантия возврата если что-то не так. Связь — Telegram: https://t.me/user_timur или ВКонтакте: https://vk.com/ok_service_pay. Без танцев с бубном.
Z.ai — это что-то вроде китайского Anthropic. Только не совсем
Краткая справка для тех, кто пропустил. Z.ai (раньше Zhipu AI) — стартап из Университета Цинхуа. $1,5 млрд инвестиций от Alibaba и Tencent, IPO на Гонконгской бирже в январе 2026-го. Их флагман — серия моделей GLM. Версия 5.1 вышла 27 марта 2026, а 7 апреля выложили веса под MIT-лицензией. Полностью open-source.
И самое интересное: модель тренировали на 100 000 китайских чипов Huawei Ascend 910B. Без Nvidia вообще. Это не маркетинг — это история про то, как санкции заставили построить параллельную AI-инфраструктуру. Получилось — спорно, но получилось.
94.6% от Opus за десятку — звучит подозрительно. Я проверил
Внутренний бенчмарк Z.ai: GLM-5.1 — 45.3 балла, Opus 4.6 — 47.9. Разрыв 2.6 балла. На SWE-Bench Pro (реальные баги в реальных репозиториях) GLM даже обогнала: 58.4 против 57.3. На SWE-Bench Verified слегка отстаёт. Для повседневного кодинга — почти неотличимо. Для глубокого reasoning — Opus впереди.
Подключение: пять строк в settings.json — и Claude Code говорит на GLM
Самое смешное — мигрировать с Opus на GLM-5.1 проще, чем настроить новый IDE. Делаешь так:
- Покупаешь GLM Coding Plan на z.ai/subscribe. Lite — $10/мес, Pro — $15, Max — $30. Промо первого месяца — $3.
- Берёшь API-ключ в дашборде.
- В файл ~/.claude/settings.json вставляешь:
json
"env": {
"ANTHROPIC_AUTH_TOKEN": "твой_GLM_ключ",
"ANTHROPIC_BASE_URL": "https://api.z.ai/api/anthropic",
"ANTHROPIC_DEFAULT_OPUS_MODEL": "glm-5.1",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "glm-5.1",
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "glm-4.5-air"
}
Перезапускаешь Claude Code — теперь под капотом GLM. Интерфейс тот же. Команды те же. Только китаец вместо американца.
С оплатой подписки, кстати, тоже без головняка: на сайте Z.ai карты СНГ-банков отбиваются, через знакомого в Стамбуле — это лотерея на день. ServicePAY делает оплату GLM Coding Plan из России в рублях за пять минут, с гарантией возврата если активация почему-то не пройдёт. Telegram: https://t.me/user_timur, ВКонтакте: https://vk.com/ok_service_pay. Я свой Lite оплатил с утра — к обеду уже коммитил.
Что я заметил за неделю: где кайф и где облом
Кайф — лимиты. На Claude Pro за 5 часов получаешь 10–40 промптов. На GLM Lite за те же 5 часов — 120. Грубо говоря, в три-пять раз больше воздуха.
Кайф номер два — цена через API. Sonnet 4.6 стоит $3/$15 за миллион токенов, GLM-5.1 — $1/$3.20. На выходе разница почти 5х. Если гоняешь 1000 агентных вызовов в день, экономия — тысячи долларов в месяц.
Облом — скорость. GLM-5.1 выдаёт ~44 токена в секунду. Это ощутимо медленнее Opus. На длинных ответах ждёшь чуть дольше. Не критично для длинных сессий, но на быстрых вопросах подбешивает.
Облом второй — пиковые часы. С 14:00 до 18:00 по Пекину (это плюс пять к Москве) квота списывается с множителем 3х. Хочешь экономить — кодь утром или поздним вечером. Звучит странно? Привыкаешь.
Где GLM-5.1 не Opus и никогда им не будет
Контекст у GLM — 200K токенов. У Opus 4.7 — миллион. Грузишь в чат целый монорепо — китаец не вытянет, факт. Дальше: GLM не понимает картинки. Ни скриншотов багов, ни диаграмм, ни UI-моков. Только текст. Для чистого кодинга норм, для дизайна и UI-дебага — ищи другое.
И ещё одна штука, про которую важно знать. В феврале 2026-го, после релиза GLM-5, серваки Z.ai легли — компания публично попросила пользователей подождать и временно ограничила регистрации. К концу марта всё стабилизировалось, но осадочек остался: это растущий сервис, бывают сбои.
Моя стратегия: GLM на каждый день, Opus на тяжёлую артиллерию
После недели я не выкинул Claude. Я поделил задачи. Рутина — фиксы, рефакторинг, тесты, мелкие фичи — на GLM-5.1. Сложные арки, огромные контексты, всё, где модели реально нужно «думать» — на Opus. В zsh сделал два алиаса: claude-glm и claude-opus. Переключаюсь одной командой за полсекунды.
По деньгам было ~$200 в месяц, стало ~$40 (плюс $30 за Max-план GLM, потом я апгрейднулся). Качество в среднем не просело. Где просело — переключился назад. Это и есть цель.
Что это всё значит для рынка
Год назад open-source AI отставал от фронтира на пару лет. Сейчас — на полтора месяца. GLM-5.1 показывает 94.6% Opus, на железе, к которому Кремниевая долина не имеет доступа в принципе. Это не «китайцы научились копировать». Это «китайцы построили параллельную инженерную школу и поехали на ней».
Что будет дальше? Anthropic уронит цены. Уже видно по Sonnet 4.6 — туда наконец-то завезли миллионный контекст за разумные деньги. Это не доброта — это давление снизу. И знаешь, что самое странное? Я больше за это давление, чем против.
Стоит ли тебе пробовать?
Если ты кодишь каждый день, упираешься в лимиты Claude Pro и считаешь токены — да. Однозначно. Lite за $10 окупится в первый же рабочий день.
Если гоняешь Opus раз в неделю на сложные задачи — оставь Opus. Тебе ничего менять не нужно.
Если ты вообще никогда не подключал ничего сложнее ChatGPT — начни с веб-интерфейса chat.z.ai. Без всяких настроек, в браузере. Поймёшь, нравится ли модель. И только потом — Claude Code.
Я бы прошёл этот путь снова. С единственным отличием: оплатил бы Z.ai сразу через ServicePAY, а не пытался прокинуть карту через знакомого в Стамбуле и ловить курс. Пиши в Telegram — https://t.me/user_timur — или в ВКонтакте — https://vk.com/ok_service_pay. Подписка активируется за 5 минут, оплата в рублях, гарантия возврата если что-то пойдёт не так. Ровно то, что нужно, чтобы не тратить выходные на банковский квест.