Добавить в корзинуПозвонить
Найти в Дзене

ZAYA1-8B: модель на AMD обходит GPT-5 в математике

ZAYA1-8B показала 89.6% в тесте HMMT '25, оставив позади Claude 4.5 и даже GPT-5-High. Пока все скупали H100, стартап Zyphra тихо доказал, что «железный» монополизм Nvidia можно обойти с помощью AMD. Представь, что ты годами сидишь в закрытом клубе, где входной билет стоит миллионы долларов и выдаётся только владельцам видеокарт Nvidia. Это и есть реальность современного AI. Все привыкли, что CUDA — это единственный язык, на котором говорят большие модели, а попытки уйти на другое железо заканчиваются либо диким падением производительности, либо бесконечными попытками «завести» библиотеку. ZAYA1-8B из Пало-Альто просто выбила дверь в этой тюрьме. Модель полностью обучена на чипах AMD MI300X в облаке IBM. И самое смешное, что она не ограничилась тем, чтобы просто заработать — она начала выигрывать у гигантов. Пока индустрия молилась на H100, Zyphra собрала стек из железа AMD и сети Pensando Pollara и создала инструмент, который в математике и кодинге чувствует себя как рыба в воде. Это
Оглавление

ZAYA1-8B показала 89.6% в тесте HMMT '25, оставив позади Claude 4.5 и даже GPT-5-High. Пока все скупали H100, стартап Zyphra тихо доказал, что «железный» монополизм Nvidia можно обойти с помощью AMD.

CUDA-тюрьма больше не приговор

Представь, что ты годами сидишь в закрытом клубе, где входной билет стоит миллионы долларов и выдаётся только владельцам видеокарт Nvidia. Это и есть реальность современного AI. Все привыкли, что CUDA — это единственный язык, на котором говорят большие модели, а попытки уйти на другое железо заканчиваются либо диким падением производительности, либо бесконечными попытками «завести» библиотеку.

ZAYA1-8B из Пало-Альто просто выбила дверь в этой тюрьме. Модель полностью обучена на чипах AMD MI300X в облаке IBM. И самое смешное, что она не ограничилась тем, чтобы просто заработать — она начала выигрывать у гигантов. Пока индустрия молилась на H100, Zyphra собрала стек из железа AMD и сети Pensando Pollara и создала инструмент, который в математике и кодинге чувствует себя как рыба в воде.

Это похоже на то, как когда-то ARM потеснил x86 в ноутбуках. Сначала все смеялись, что «на этих игрушках нельзя работать», а потом проснулись с MacBook на M1, который живет неделю без зарядки и не греется как электрочайник. С ZAYA1 происходит то же самое: эффективность архитектуры внезапно стала важнее привычного стандарта.

Интеллект на один параметр

Самое дикое в этой истории — размер. В мире, где OpenAI и Anthropic раздувают свои модели до триллионов параметров, Zyphra пошла по пути хирургической точности. ZAYA1-8B использует архитектуру MoE (смесь экспертов), когда модель не включает весь свой мозг сразу, и на один проход задействуется всего 760 миллионов активных параметров.

Для сравнения: это меньше одного миллиарда. При этом в тестах на математику модель обходит GPT-5-High. Ты только вдумайся в этот контраст. Это как если бы стажёр с одним блокнотом решил задачу, над которой целый отдел профессоров бился месяц с суперкомпьютером.

Такая плотность интеллекта делает модель очень дешевой в запуске. Тебе больше не нужно арендовать целую ферму GPU, чтобы получить ответ уровня frontier-модели. Здесь работает принцип максимального извлечения пользы из каждого флопса. Модель не пытается знать всё обо всём, она сфокусирована на жесткой логике, что делает её идеальным инструментом для тех, кому нужен рабочий код или точный расчёт.

Магия сжатия и бесконечные раздумья

Конечно, такие цифры не берутся из воздуха. Внутри ZAYA1 спрятаны инженерные трюки, которые превращают её в настоящего терминатора. Например, технология CCA сжимает KV-кэш в 8 раз. Это как если бы ты сжал огромный архив с документами до размера одной флешки, но при этом мог мгновенно найти в нём любую строчку.

Ещё интереснее работает Markovian RSA. Это метод, который позволяет модели буквально «зависнуть» в раздумьях и генерировать параллельные цепочки рассуждений. В итоге ZAYA1 может думать над задачей столько, сколько потребуется, и при этом не забивать окно контекста.

Представь себе юриста, который сначала прописывает в черновике пять вариантов аргументации, отсекает слабые и выдает тебе один выверенный результат. Да, это добавляет задержки в ответе, но зато ты получаешь решение, которое работает. Не быстрое, но правильное.

Открытый код против закрытых гигантов

Пока топовые лаборатории прячут свои веса за платными API и высокими заборами, Zyphra выложила ZAYA1 под лицензией Apache 2.0. Это значит, что веса доступны на Hugging Face любому желающему.

Теперь любой разработчик может развернуть reasoning-модель уровня GPT-5 у себя в контуре, не переживая, что данные утекут в OpenAI. Это возвращает нас к истокам open-source, когда инструмент принадлежит тому, кто его запустил.

Конечно, в творчестве или общих знаниях ZAYA1 может уступить универсальным монстрам. Но нам и не нужен «поэт» там, где нужно написать сложный SQL-запрос или доказать теорему. Для этих задач ZAYA1-8B превращает дорогой AI в доступный утилитарный инструмент, который просто делает свою работу.

Подбираю и внедряю модели под задачи бизнеса без переплаты — за деталями в телеграм @dmitra_ai или ВКонтакте.

Индустрия переходит от эпохи «грубой силы» к эпохе умного дизайна. ZAYA1-8B напоминает, что в гонке вооружений побеждает тот, кто умеет использовать ресурсы с умом. Это как заменить старый офисный принтер, который занимает полкомнаты и жует бумагу, на компактный МФЦ, который делает всё то же самое, но помещается на столе.