Найти в Дзене
Social Mebia Systems

Самое дорогое поле битвы ИИ: сколько на самом деле стоит эпоха дата центров

AI‑революция всё меньше выглядит как история про «умные алгоритмы» и всё больше — как гигантскую стройку. Триллионы долларов по всему миру уходят не в модели напрямую, а в бетон, сталь, турбины, кабели, системы охлаждения и, главное, в серверы с GPU.

Самый яркий символ — проект Stargate от OpenAI: по оценкам, только один такой дата‑центр на 10 ГВт может обойтись в 500 млрд долларов. И это, по мнению многих, лишь начало.

Из чего состоит счёт на сотни миллиардов

Американский банк Bank of America предлагает наглядную «смету» следующего поколения AI‑дата‑центров, пересчитанную на 1 ГВт мощности. Все расходы делятся на четыре блока.

1. IT‑оборудование — львиная доля расходов

Это сердце дата‑центра: серверы, сеть и хранилище.

  • Серверы (CPU, GPU, память, платы и т.д.) — около 37,5 млрд $ на 1 ГВт.
  • Для гиперскейлеров (OpenAI, Meta – запрещённая в России, Amazon, Oracle и др.) сервера собирают крупные ODM‑производители (Foxconn/工业富联 и др.) по спецификациям Nvidia, AMD и т.п.
  • Остальному рынку продают Dell, HPE, Supermicro и другие OEM.
  • Сетевое оборудование — примерно 3,75 млрд $ на 1 ГВт.
    Здесь доминируют Arista, Cisco, Huawei, отчасти Nvidia. Хотя доля Nvidia в сетях невелика (около 5%), её InfiniBand ценится за низкую задержку и отсутствие потерь, что особенно важно для распределённого обучения ИИ.
  • Системы хранения — ещё 1,9 млрд $ на 1 ГВт.
    Главные игроки: Samsung, SK hynix, Micron, Seagate и другие.

Итого: около 43,15 млрд $ на 1 ГВт уходит только на IT‑железо. Это примерно 84% всех капитальных затрат на дата‑центр такого масштаба.

2. Охлаждение: маленькая строка в бюджете, без которой всё сгорит

На долю систем охлаждения приходится всего около 3% общих затрат, но без них ни один GPU не протянет.

Классическое воздушное охлаждение уже не справляется с плотной стойкой из H100/Blackwell: слишком много тепла, слишком мало пространства. Поэтому:

  • жидкостное охлаждение превращается из «экзотики» в отраслевой стандарт;
  • для 1 ГВт‑дата‑центра суммарные расходы на охлаждение — порядка 1,4 млрд $:
  • градирни;
  • чиллеры (холодильные машины);
  • CDU (распределители охлаждающей жидкости);
  • CRAH/CRAC (воздухообрабатывающие агрегаты в залах).

Рынок разбит на множество поставщиков, среди заметных — Vertiv, Johnson Controls, Stulz, Schneider Electric.

При этом охлаждение становится и зоной киберриска: были случаи, когда хакеры, взломав систему охлаждения, доводили температуру в дата‑центре до аварийной, повреждая оборудование и вымогая выкуп.

3. Электроснабжение: генераторы, UPS и распределение

Электрика — это не только счёт за киловатт‑часы, но и огромный пласт инфраструктуры:

  • дизель‑генераторы резервного питания — около 800 млн $ на 1 ГВт (и это оценка без учёта полной избыточности);
  • распределительные устройства и коммутация — ~615 млн $;
  • UPS (системы бесперебойного питания) — ~985 млн $;
  • шинопроводы и прочие элементы распределения по залам — ~300 млн $.

Итого около 2,7 млрд $ на 1 ГВт — примерно в 13 раз меньше, чем на IT‑часть. Однако в реальности затраты часто выше из‑за требований к резервированию: для дата‑центра с 1 ГВт IT‑нагрузки иногда закладывают до 2 ГВт мощности дизель‑генераторов, чтобы выдерживать отказ части оборудования и пиковые ситуации.

Рынком здесь управляют Caterpillar, Cummins, Rolls-Royce (генераторы) и Schneider, Vertiv, Eaton (электроника и распределение).

4. Стройка и монтаж: бетон, сталь, труд

Строительно‑монтажные работы — ещё одна крупная статья:

  • строительство зданий, залов, инфраструктуры;
  • монтаж и интеграция оборудования;
  • услуги генеральных подрядчиков.

Оценочно — около 42,8 млрд $ на 1 ГВт.

Общий итог по BofA

Для дата‑центра на 1 ГВт:

  • IT‑оборудование: ~43,15 млрд $
  • Электроснабжение: ~2,7 млрд $
  • Охлаждение: ~1,47 млрд $
  • Строительство и монтаж: ~4,28 млрд $

Всего: ≈ 51,6 млрд $ на 1 ГВт.

Соответственно, заявленный 10‑гигаваттный Stargate OpenAI с оценкой в ~500 млрд $ выглядит вполне реалистично.

Почему аналитики спорят: расхождение в сотни миллиардов

Разные инвестбанки и исследовательские компании дают сильно отличающиеся оценки стоимости тех же 1 ГВт:

  • Bernstein: ~350 млрд $/ГВт, при этом доля GPU/IT — около 56%;
  • Barclays: 500–600 млрд $/ГВт, 65–70% — вычисления и сеть;
  • Morgan Stanley: ~335 млрд $/ГВт, IT — 41%, остальное — инфраструктура.

Главные причины расхождений:

  1. Разные поколения чипов и их цена.
    Bank of America моделирует центр под будущую линейку
    Nvidia Rubin (2026+),
    тогда как Bernstein и Morgan Stanley считают на базе
    Blackwell (2024).
    GPU следующего поколения, судя по оценкам, будут
    существенно дороже, отсюда и скачок: только по линии GPU оценки могут отличаться более чем на 200 млрд $ на 1 ГВт.
  2. Разный охват инфраструктуры.
  • BofA в основном считает «коробку» дата‑центра: здание и всё, что внутри.
  • Bernstein включает не только сам DC, но и весь прилегающий энерго‑ и распределительный комплекс: газовые турбины, подстанции, сети внутри кампуса и т.д.

Сам же Nvidia (в лице Дженсена Хуанга) «по своей математике» оценивает 1 ГВт AI‑дата‑центра уже в 60,0–80,0 млрд, из которых∗ 40,0–50,0 млрд — чисто вычислительная часть, то есть потенциальная выручка Nvidia. И, как справедливо замечают эксперты, цены на свои чипы лучше всех знает именно Хуанг.

Скрытая строка: дата‑центр как новый крупный потребитель энергии (и энергетики)

Проблема в том, что мало построить дата‑центр — его нужно ещё и чем‑то питать. С этим сегодня в США и Европе всё хуже:

  • существующая энергосистема с трудом переваривает растущий спрос;
  • подключение новых мощностей задерживается на годы;
  • регуляторы, сети и генерирующие компании не успевают масштабироваться.

Результат: гиперскейлеры начинают сами строить энергетику под свои нужды.

  • OpenAI и партнёры (например Oracle) рассматривают вариант собственных электростанций, подстанций и линий электропередачи.
  • Оценки: для дата‑центра на 10 ГВт дополнительная генерация может стоить ещё 12,0–20,0 млрд $, если строить свою электростанцию.
  • Генераторы и турбины раскупаются на годы вперёд: тот же GE Vernova получает заказы на газовые турбины с горизонтом исполнения 3 года и более.
  • Google уже вложил около 3 млрд $ в модернизацию двух ГЭС в Пенсильвании, получая взамен около 3 ГВт мощности (примерно 1 ГВт на каждый миллиард на CAPEX по модернизации).

При этом:

  • дизель‑генераторы в DC не подходят как основная генерация: они рассчитаны на кратковременную работу в аварийном режиме, а не на 24/7/365, и киловатт‑час там в 3–8 раз дороже, чем на газовых турбинах.
  • Поэтому строятся (или планируются) именно газовые электростанции, топливные элементы и другие долговременные источники.

«Дата‑центры в космосе»: экзотика или реальная альтернатива?

Дефицит энергии на Земле уже подталкивает гигантов смотреть… вверх.

Среди идей, которые обсуждают Google, Microsoft, Amazon и SpaceX:

  • орбитальные дата‑центры, питающиеся от солнечных батарей:
  • в космосе эффективность солнечных панелей выше примерно в 8 раз за счёт постоянного освещения и отсутствия атмосферы;
  • можно использовать вакуум для радиационного охлаждения, снижая потребность в сложных системах отвода тепла.

По неформальным оценкам, сейчас:

  • 1 МВт мощности на орбите (включая запуск) может стоить около 35,5 млн $;
  • 1 ГВт — это уже ~35,5 млрд $, что не выглядит запредельно дороже, чем строительство таких же мощностей на Земле с учётом энергетической инфраструктуры.

Тема пока экспериментальная, но сам факт её серьёзного обсуждения показывает: война за энергию ради ИИ обостряется до предела.

Почему, несмотря на разговоры о пузыре, все продолжают строить

Логичный вопрос: если риски переинвестирования в AI‑инфраструктуру так велики, почему капиталы не остывают?

Эксперты называют две ключевые причины.

1. Недоинвестировать опаснее, чем переинвестировать

Логика больших игроков такова:

  • Кто первым получит лучшие модели или приблизится к AGI, тот может занять непропорционально большую долю рынка и вытеснить конкурентов.
  • Отсюда вывод: опоздание стоит дороже, чем «перебор» с дата‑центрами, землёй и мощностями.

Если ресурсов окажется слишком много:

  • их можно использовать для внутренних задач (оптимизация бизнес‑процессов, снижение издержек, новые сервисы);
  • сдать излишки в аренду как облако;
  • перепродать землю, мощности, инфраструктуру.

То есть у переинвестирования есть потолок потерь, а у недоинвестирования — риск «выпасть из гонки» насовсем.

2. Любая инфраструктура для ИИ будет использована

Вторая установка из Силиконовой долины:

«Если у тебя есть железо и инфраструктура, рынок всегда найдёт, чем их загрузить».

Даже сегодня:

  • соцсети типа Meta тратят огромные GPU‑ресурсы только на модерацию контента, рекомендательные системы, аналитику;
  • избыточная мощность всегда может быть обращена в внутреннюю экономию (автоматизацию, аналитику, сокращение штата), которая сама по себе окупает часть инвестиций.

Финансировать всё это гиганты могут за счёт:

  • собственных денежных потоков (прибыль гиперскейлеров);
  • долговых рынков (инвестиционный и высокодоходный долг в США);
  • частного кредитования и «теневого банкинга» (private credit).

По сути, AI‑дата‑центры становятся новым инфраструктурным циклом, сравнимым по масштабу с историческими волнами строительства железных дорог, электросетей и интернета.

В итоге именно дата‑центры и энергетика, а не только сами модели, становятся самым дорогим фронтом войны за ИИ‑будущее.

Для компаний ставка проста:
лучше рискнуть и построить «слишком много» мощностей, чем опоздать и навсегда остаться клиентом того, кто построил раньше.

Хотите создать уникальный и успешный продукт? СМС – ваш надежный партнер в мире инноваций! Закажи разработки ИИ-решений, LLM-чат-ботов, моделей генерации изображений и автоматизации бизнес-процессов у профессионалов.

ИИ сегодня — ваше конкурентное преимущество завтра!

Тел. +7 (985) 982-70-55

E-mail sms_systems@inbox.ru

Сайт https://www.smssystems.ru/razrabotka-ai/