Добавить в корзинуПозвонить
Найти в Дзене

Intel и SambaNova собрали гетерогенную платформу для AI-инференса

Intel и SambaNova объявили о совместной «production-ready» архитектуре для AI-инференса, где разные этапы выполняет разное железо. Схема простая: GPU берут на себя «тяжёлый» старт с длинными промптами, SN50 ускоряет генерацию токенов, а Xeon 6 управляет агентами и всей оркестрацией. Компании нацелились на корпоративный сегмент. Они хотят закрыть широкий набор сценариев и отъесть долю у Nvidia и других игроков, которые сейчас доминируют в инференсе. Архитектура разделяет инференс на стадии и раскладывает их по типам вычислителей. Идея в том, что «prefill» и «decode» нагружают систему по-разному, и универсального ускорителя под всё сразу почти не бывает. ❗️ ПОДПИСЫВАЙСЯ НА НАШ КАНАЛ В ДЗЕНЕ И ЧИТАЙ КРУТЫЕ СТАТЬИ БЕСПЛАТНО Здесь важный акцент для Intel: в роли «мозга» системы выступают именно Xeon 6, а не CPU конкурентов. Для корпоративных заказчиков это часто критично, потому что вокруг x86 уже построены процессы и стек софта. Разделение инференса на prefill и decode напоминает то, как N
Оглавление

Intel и SambaNova объявили о совместной «production-ready» архитектуре для AI-инференса, где разные этапы выполняет разное железо. Схема простая: GPU берут на себя «тяжёлый» старт с длинными промптами, SN50 ускоряет генерацию токенов, а Xeon 6 управляет агентами и всей оркестрацией.

Компании нацелились на корпоративный сегмент. Они хотят закрыть широкий набор сценариев и отъесть долю у Nvidia и других игроков, которые сейчас доминируют в инференсе.

Как платформа делит инференс между CPU, GPU и RDU

Архитектура разделяет инференс на стадии и раскладывает их по типам вычислителей. Идея в том, что «prefill» и «decode» нагружают систему по-разному, и универсального ускорителя под всё сразу почти не бывает.

❗️ ПОДПИСЫВАЙСЯ НА НАШ КАНАЛ В ДЗЕНЕ И ЧИТАЙ КРУТЫЕ СТАТЬИ БЕСПЛАТНО

  1. Prefill: Nvidia GPU или другие AI-ускорители обрабатывают длинные запросы, строят key-value cache.
  2. Decode: SambaNova SN50 RDU генерирует токены (этап декодинга).
  3. Agentic tools: Intel Xeon 6 запускает агентные операции (например, компиляцию и выполнение кода, валидацию ответов) и координирует распределение задач по железу.

Здесь важный акцент для Intel: в роли «мозга» системы выступают именно Xeon 6, а не CPU конкурентов. Для корпоративных заказчиков это часто критично, потому что вокруг x86 уже построены процессы и стек софта.

Сравнение с подходом Nvidia и ставка Intel на Xeon 6

Разделение инференса на prefill и decode напоминает то, как Nvidia описывала свой подход для платформы Rubin. Там концепция завязана на Rubin CPX и Rubin GPU с памятью HBM4, но Intel и SambaNova подчёркивают практичность своей схемы: они собирают решение из доступных классов железа, а «центром управления» делают Xeon 6.

Intel приводит цифры, которые должны объяснить, зачем в этой истории нужен сильный CPU. По внутренним данным SambaNova, Xeon 6 даёт более чем 50% прироста скорости компиляции LLVM по сравнению с Arm-серверными CPU. Ещё компания заявляет до 70% более высокую производительность в задачах векторных баз данных по сравнению с конкурирующими x86-процессорами, то есть с AMD EPYC.

Эти метрики завязаны на «агентные» сценарии. Там модель не только генерирует текст, но и пишет код, компилирует, запускает, проверяет результаты и повторяет цикл.

-2

Кому и когда обещают доступ: 2 полугодие 2026 года

Платформу планируют поставить во второй половине 2026 года. Целевая аудитория — предприятия, облачные операторы и программы «sovereign AI», которым нужна масштабируемая инфраструктура инференса «под ключ» и полностью in-house.

Ещё один практичный момент — требования к дата-центру. Intel и SambaNova говорят, что серверы на SN50 и Xeon «drop-in compatible» для площадок, которые выдерживают 30 кВт на стойку. По их оценке, это большинство корпоративных дата-центров.

Kevork Kechichian, Executive Vice President и General Manager Data Center Group в Intel, так описал позицию компании: «The data center software ecosystem is built on x86, and it runs on Xeon… Workloads of the future will require a heterogeneous mix of computing, and this collaboration with SambaNova delivers a cost-efficient, high-performance inference architecture… powered by Xeon 6».

Подробности компании раскрыли в пресс-релизе на Business Wire, а сроки доступности обозначили как 2 полугодие 2026 года.

❗️ ПОДПИСЫВАЙСЯ НА НАШ КАНАЛ В ДЗЕНЕ И ЧИТАЙ КРУТЫЕ СТАТЬИ БЕСПЛАТНО

Подписывайтесь на наши каналы в Telegram и Дзен, чтобы узнавать больше. И делитесь своим мнением и опытом в нашем чате.

Intel и SambaNova собрали гетерогенную платформу для AI-инференса ⚡️