Найти в Дзене

Nvidia Rubin: новая эра AI-ускорителей с 550 млрд транзисторов и памятью HBM4

На выставке CES 2026 корпорация Nvidia официально презентовала флагманскую платформу Rubin для искусственного интеллекта, которая станет преемником архитектуры Blackwell и установит новую планку производительности в индустрии. Первые поставки клиентам запланированы на конец 2026 года, а серийный выпуск стартует уже в первом квартале. Платформа Rubin представляет собой комплексную систему из шести специализированных чипов: Графический ускоритель Rubin построен на базе двух кристаллов и демонстрирует впечатляющие вычислительные характеристики: 50 петафлопс (PFLOPS) для инференса и 35 петафлопс для обучения моделей в формате NVFP4. Это соответственно в 5 и 3,5 раза превышает показатели предшественника Blackwell. Для обеспечения столь колоссальной вычислительной мощности каждый GPU Rubin оборудован восемью стеками памяти нового поколения HBM4 общим объёмом 288 ГБ с пропускной способностью до 22 ТБ/с, критически важный параметр для обработки массивных AI-моделей в реальном времени. Фундамен
Оглавление

На выставке CES 2026 корпорация Nvidia официально презентовала флагманскую платформу Rubin для искусственного интеллекта, которая станет преемником архитектуры Blackwell и установит новую планку производительности в индустрии. Первые поставки клиентам запланированы на конец 2026 года, а серийный выпуск стартует уже в первом квартале.

Шестикомпонентная архитектура

Платформа Rubin представляет собой комплексную систему из шести специализированных чипов:

  • GPU Rubin — графический ускоритель для AI-задач (336 млрд транзисторов);
  • CPU Vera — центральный процессор (227 млрд транзисторов);
  • Шина NVLink 6 — межсоединение для высокоскоростного обмена данными;
  • Spectrum-X — Ethernet-решение на основе кремниевой фотоники с пропускной способностью 102,4 Тбит/с;
  • Сетевые адаптеры ConnectX-9 (1,6 ТБ/с);
  • DPU BlueField-4 — специализированные процессоры обработки данных.
Изображение: WCCF/Nvidia
Изображение: WCCF/Nvidia

Двухкристальный GPU с гигантским запасом мощности

Графический ускоритель Rubin построен на базе двух кристаллов и демонстрирует впечатляющие вычислительные характеристики: 50 петафлопс (PFLOPS) для инференса и 35 петафлопс для обучения моделей в формате NVFP4. Это соответственно в 5 и 3,5 раза превышает показатели предшественника Blackwell.

Для обеспечения столь колоссальной вычислительной мощности каждый GPU Rubin оборудован восемью стеками памяти нового поколения HBM4 общим объёмом 288 ГБ с пропускной способностью до 22 ТБ/с, критически важный параметр для обработки массивных AI-моделей в реальном времени.

Суперчип Vera Rubin: сердце дата-центра

Фундаментом новых центров обработки данных становится суперчип Vera Rubin, объединяющий один CPU Vera с 88 ядрами и пару графических ускорителей Rubin. Полная стойка конфигурации NVL72 Vera Rubin выдаёт суммарную производительность 3,6 экзафлопс (EFLOPS) и располагает 54 ТБ оперативной памяти LPDDR5x плюс 20,7 ТБ памяти HBM4.

Для понимания масштаба: один экзафлопс — это миллиард миллионов операций с плавающей точкой в секунду. Стойка NVL72 способна выполнять 3,6 триллиона таких операций ежесекундно.

Экономика нового поколения

Nvidia делает смелые заявления об экономической эффективности перехода. По утверждению компании, миграция на платформу Rubin снизит стоимость генерации токенов (инференс) в 10 раз, а для обучения сложных моделей потребуется в 4 раза меньше GPU по сравнению с системами на базе Blackwell GB200.

Если прогнозы подтвердятся, это кардинально изменит экономику эксплуатации AI-инфраструктуры: компании смогут либо существенно сократить капитальные затраты, либо при тех же бюджетах развернуть значительно более мощные вычислительные кластеры.

Кремниевая фотоника вместо медных проводов

Отдельного внимания заслуживает внедрение кремниевой фотоники в решение Spectrum-X. Использование оптических каналов передачи данных вместо традиционных электрических позволяет достичь пропускной способности 102,4 Тбит/с при меньшем энергопотреблении и задержках — критически важный фактор для масштабных AI-кластеров, где узким местом часто становится именно межузловое взаимодействие.

Запуск серийного производства в первом квартале 2026 года с первыми поставками клиентам к концу года демонстрирует агрессивный график Nvidia. Учитывая сложность платформы и необходимость координации с партнёрами-производителями памяти HBM4, соблюдение заявленных сроков станет серьёзным испытанием логистических и производственных цепочек.

Интересуетесь эволюцией AI-ускорителей и архитектурой суперкомпьютеров для искусственного интеллекта? Подписывайтесь на наш канал!