Найти в Дзене

Rubin, суверенный AI и гигаваттные ЦОД — КРЧ, что происходит

Microsoft анонсировала новый регион Azure с запуском в феврале 2026 года. Без деталей по локации и ёмкости, но понятно, что это очередной кирпич в стене под AI-нагрузки и мульти-региональные архитектуры. Armada и Nscale договорились развивать модель: гиперскейл-GPU-хабы + контейнерные edge-ЦОД с жидкостным охлаждением Leviathan (до 10× плотнее Triton). Решение под госы и энтерпрайз, которым нужен суверенный AI, но нет условий строить классический DC. В новых регуляциях прописано: энергоэффективные схемы охлаждения, включая жидкостную иммерсию, — must have для новых ЦОД. По оценкам, это даёт до 50% экономии энергии и фактически поднимает иммерсию в статус базового стандарта для AI-инфраструктуры в регионе. CoreWeave показала ARENA — лабораторию, где можно прогонять реальные AI-ворклоады на стойках GB300 NVL72 (72 Rubin GPU + 36 Vera CPU) с готовым стеком (Slurm on K8s, свой Kubernetes, свой объектный транспорт). По сути, это “тест-драйв” продакшн-кластеров перед массовым развёртыванием.
Оглавление

📰 Microsoft наращивает облачную “мускулатуру под AI”

Microsoft анонсировала новый регион Azure с запуском в феврале 2026 года. Без деталей по локации и ёмкости, но понятно, что это очередной кирпич в стене под AI-нагрузки и мульти-региональные архитектуры.

📰 Суверенный AI: Armada + Nscale собирают гибрид “гиперскейл + контейнерные DC”

Armada и Nscale договорились развивать модель: гиперскейл-GPU-хабы + контейнерные edge-ЦОД с жидкостным охлаждением Leviathan (до 10× плотнее Triton). Решение под госы и энтерпрайз, которым нужен суверенный AI, но нет условий строить классический DC.

📰 Саудовская Аравия делает иммерсионное охлаждение обязательным

В новых регуляциях прописано: энергоэффективные схемы охлаждения, включая жидкостную иммерсию, — must have для новых ЦОД. По оценкам, это даёт до 50% экономии энергии и фактически поднимает иммерсию в статус базового стандарта для AI-инфраструктуры в регионе.

📰 CoreWeave запускает ARENA — стенд для боевой проверки AI-нагрузок

CoreWeave показала ARENA — лабораторию, где можно прогонять реальные AI-ворклоады на стойках GB300 NVL72 (72 Rubin GPU + 36 Vera CPU) с готовым стеком (Slurm on K8s, свой Kubernetes, свой объектный транспорт). По сути, это “тест-драйв” продакшн-кластеров перед массовым развёртыванием.

📰 Гигаваттные AI-кампусы и референс-чертежи на 1 ГВт

Digital Edge, OpenAI, xAI, SDAIA и другие двигаются в сторону кампусов на сотни мегаватт–2 ГВт, с гибридным (воздух + жидкость) охлаждением и префаб-модульной архитектурой. Johnson Controls параллельно выпускает thermal-гайды для AI-ЦОД до 1 ГВт: водяные чиллер-планты, dry-cooler’ы “без воды” и схемы под 140–200 кВт на стойку.

📰 Rubin подвигает рынок к микро-ЦОД и модульным AI-площадкам

NVIDIA Vera Rubin обещает до 10× удешевление инференса и до 4× меньше GPU для обучения MoE vs Blackwell — Microsoft уже бронирует “сотни тысяч” Superchip’ов для Fairwater. Параллельно в Японии и США запускают модульные AI-ЦОД на 4–300 МВт и микро-ЦОД 5–20 МВт у подстанций под локальный inference.

📰 AI-нагрузки перестраивают “железо” и стойки

Compal показала платформу SX420-2A, заточенную под enterprise-LLM и ген-AI: до −55% времени отклика и +50% пропускной способности инференса. Рынок стоек растёт: до 300 кВт+ на стойку, до 5000 фунтов статической нагрузки, плюс растёт спрос на точную телеметрию (±0,1°C) и формальные методики ввода жидкостного охлаждения (Vertiv Flow and Balance).

📰 RHEL для Rubin и шок по ценам на память

Red Hat выпускает RHEL for NVIDIA Rubin с поддержкой Rubin GPU, Vera CPU и BlueField-4 “из коробки” к H2 2026. На фоне этого DDR5 и NAND дорожают: производители уводят мощности в сторону HBM под AI-ускорители, а NVMe-oF + RoCE окончательно закрепляются как стандарт для AI-хранилищ, чтобы не душить GPU I/O-узкими местами.

Собрано CRAB-скаутами 🦀 #рубрика_крч #дайджест