Найти в Дзене

AI-дата-центры разгоняются. Электричество — новый лимит. КРЧ, что происходит

Коротко: железо ускоряется, стойки тяжелеют, электричество и охлаждение выходят на первый план. Если вы отвечаете за инфраструктуру, бюджет или стратегию — этот дайджест сэкономит вам время. NVIDIA официально двигает новое поколение AI-платформ Rubin (Vera Rubin) во вторую половину 2026. Цифры: Но главное даже не в FLOPS. Rubin — это уже не просто GPU, а цельная платформа: GPU + CPU + DPU + NIC + NVLink + Ethernet. Фактически — конструктор для AI-фабрик. Что это значит: если раньше можно было «добавить пару ускорителей», то дальше так не выйдет. AI теперь требует переезда всей стойки, а иногда и зала целиком. Rubin уже тестируют и интегрируют: AWS, Google Cloud, Microsoft, Oracle Cloud. Когда гиперскейлеры заходят первыми, enterprise почти всегда приходит следом — но с опозданием и болью. Вопрос на подумать: ваша текущая серверная вообще готова к стойкам по 80–100 кВт? Или там до сих пор «20 кВт»? Рынок стоек уходит от классических схем: вместо 12V и 54V → 48V DC-bus, дальше — 800V
Оглавление

Коротко: железо ускоряется, стойки тяжелеют, электричество и охлаждение выходят на первый план.

Если вы отвечаете за инфраструктуру, бюджет или стратегию — этот дайджест сэкономит вам время.

📰 GPU стали настолько мощными, что уперлись не в код, а в розетку

-2

NVIDIA официально двигает новое поколение AI-платформ Rubin (Vera Rubin) во вторую половину 2026.

Цифры:

  • inference — до 5×
  • обучение — до 3,5×

Но главное даже не в FLOPS. Rubin — это уже не просто GPU, а цельная платформа: GPU + CPU + DPU + NIC + NVLink + Ethernet. Фактически — конструктор для AI-фабрик.

Что это значит: если раньше можно было «добавить пару ускорителей», то дальше так не выйдет. AI теперь требует переезда всей стойки, а иногда и зала целиком.

📰 Гиперскейлеры уже внутри. Enterprise — на очереди

-3

Rubin уже тестируют и интегрируют: AWS, Google Cloud, Microsoft, Oracle Cloud.

Когда гиперскейлеры заходят первыми, enterprise почти всегда приходит следом — но с опозданием и болью.

Вопрос на подумать: ваша текущая серверная вообще готова к стойкам по 80–100 кВт? Или там до сих пор «20 кВт»?

📰 48V и 800V — новая реальность питания

-4

Рынок стоек уходит от классических схем: вместо 12V и 54V → 48V DC-bus, дальше — 800V DC / HVDC

Зачем? Потому что при мегаваттных нагрузках потери на преобразованиях начинают жрать деньги. NVIDIA через инициативу Kyber уже формирует референс не только серверов, но и всей силовой архитектуры.

Проще говоря: питание больше не «инженерная мелочь». Это архитектурное решение уровня CPU.

📰 Воздух больше не справляется. Жидкость — не тренд, а норма

-5

LG подписала крупную сделку с Microsoft на полный стек жидкостного охлаждения для AI-дата-центров.

Факты:

  • плотность стоек: 100–120 кВт
  • раньше: 20–30 кВт
  • PUE: 1,03–1,1 — и это уже не теория

Важно: жидкостное охлаждение сейчас — это не «экзотика». Это способ вообще запустить IT-инфраструктуру, особенно там, где проблемы с водой и электричеством.

📰 Память и SSD подорожают еще.

-6

Samsung прямо говорит: в 2026 ожидается дефицит памяти и рост цен.

Причины:

  • мощности уходят в HBM
  • HBM уходит в AI
  • обычной DRAM и SSD становится меньше

Вывод: кто не зафиксировал закупки заранее — будет покупать дороже.

📰 AI смещается из тренинга в inference

-7

Еще один тихий, но важный сдвиг. В 2026 рынок начинает активно переключаться:

  • меньше «учим гигантов»
  • больше inference в проде

Отсюда:

  • новые типы серверов
  • гибридное охлаждение (воздух + жидкость)
  • попытка не сносить старые ЦОД, а дожить на апгрейдах

Хорошая новость: не всем нужен hyperscale.
Плохая: даже inference теперь жрет больше, чем классический ERP.

Собрано CRAB-скаутами 🦀
Не забудьте сохранить и поделиться с коллегами.

CRABBIT
#рубрика_крч #дайджест