AI‑революция всё меньше выглядит как история про «умные алгоритмы» и всё больше — как гигантскую стройку. Триллионы долларов по всему миру уходят не в модели напрямую, а в бетон, сталь, турбины, кабели, системы охлаждения и, главное, в серверы с GPU.
Самый яркий символ — проект Stargate от OpenAI: по оценкам, только один такой дата‑центр на 10 ГВт может обойтись в 500 млрд долларов. И это, по мнению многих, лишь начало.
Из чего состоит счёт на сотни миллиардов
Американский банк Bank of America предлагает наглядную «смету» следующего поколения AI‑дата‑центров, пересчитанную на 1 ГВт мощности. Все расходы делятся на четыре блока.
1. IT‑оборудование — львиная доля расходов
Это сердце дата‑центра: серверы, сеть и хранилище.
- Серверы (CPU, GPU, память, платы и т.д.) — около 37,5 млрд $ на 1 ГВт.
- Для гиперскейлеров (OpenAI, Meta – запрещённая в России, Amazon, Oracle и др.) сервера собирают крупные ODM‑производители (Foxconn/工业富联 и др.) по спецификациям Nvidia, AMD и т.п.
- Остальному рынку продают Dell, HPE, Supermicro и другие OEM.
- Сетевое оборудование — примерно 3,75 млрд $ на 1 ГВт.
Здесь доминируют Arista, Cisco, Huawei, отчасти Nvidia. Хотя доля Nvidia в сетях невелика (около 5%), её InfiniBand ценится за низкую задержку и отсутствие потерь, что особенно важно для распределённого обучения ИИ. - Системы хранения — ещё 1,9 млрд $ на 1 ГВт.
Главные игроки: Samsung, SK hynix, Micron, Seagate и другие.
Итого: около 43,15 млрд $ на 1 ГВт уходит только на IT‑железо. Это примерно 84% всех капитальных затрат на дата‑центр такого масштаба.
2. Охлаждение: маленькая строка в бюджете, без которой всё сгорит
На долю систем охлаждения приходится всего около 3% общих затрат, но без них ни один GPU не протянет.
Классическое воздушное охлаждение уже не справляется с плотной стойкой из H100/Blackwell: слишком много тепла, слишком мало пространства. Поэтому:
- жидкостное охлаждение превращается из «экзотики» в отраслевой стандарт;
- для 1 ГВт‑дата‑центра суммарные расходы на охлаждение — порядка 1,4 млрд $:
- градирни;
- чиллеры (холодильные машины);
- CDU (распределители охлаждающей жидкости);
- CRAH/CRAC (воздухообрабатывающие агрегаты в залах).
Рынок разбит на множество поставщиков, среди заметных — Vertiv, Johnson Controls, Stulz, Schneider Electric.
При этом охлаждение становится и зоной киберриска: были случаи, когда хакеры, взломав систему охлаждения, доводили температуру в дата‑центре до аварийной, повреждая оборудование и вымогая выкуп.
3. Электроснабжение: генераторы, UPS и распределение
Электрика — это не только счёт за киловатт‑часы, но и огромный пласт инфраструктуры:
- дизель‑генераторы резервного питания — около 800 млн $ на 1 ГВт (и это оценка без учёта полной избыточности);
- распределительные устройства и коммутация — ~615 млн $;
- UPS (системы бесперебойного питания) — ~985 млн $;
- шинопроводы и прочие элементы распределения по залам — ~300 млн $.
Итого около 2,7 млрд $ на 1 ГВт — примерно в 13 раз меньше, чем на IT‑часть. Однако в реальности затраты часто выше из‑за требований к резервированию: для дата‑центра с 1 ГВт IT‑нагрузки иногда закладывают до 2 ГВт мощности дизель‑генераторов, чтобы выдерживать отказ части оборудования и пиковые ситуации.
Рынком здесь управляют Caterpillar, Cummins, Rolls-Royce (генераторы) и Schneider, Vertiv, Eaton (электроника и распределение).
4. Стройка и монтаж: бетон, сталь, труд
Строительно‑монтажные работы — ещё одна крупная статья:
- строительство зданий, залов, инфраструктуры;
- монтаж и интеграция оборудования;
- услуги генеральных подрядчиков.
Оценочно — около 42,8 млрд $ на 1 ГВт.
Общий итог по BofA
Для дата‑центра на 1 ГВт:
- IT‑оборудование: ~43,15 млрд $
- Электроснабжение: ~2,7 млрд $
- Охлаждение: ~1,47 млрд $
- Строительство и монтаж: ~4,28 млрд $
Всего: ≈ 51,6 млрд $ на 1 ГВт.
Соответственно, заявленный 10‑гигаваттный Stargate OpenAI с оценкой в ~500 млрд $ выглядит вполне реалистично.
Почему аналитики спорят: расхождение в сотни миллиардов
Разные инвестбанки и исследовательские компании дают сильно отличающиеся оценки стоимости тех же 1 ГВт:
- Bernstein: ~350 млрд $/ГВт, при этом доля GPU/IT — около 56%;
- Barclays: 500–600 млрд $/ГВт, 65–70% — вычисления и сеть;
- Morgan Stanley: ~335 млрд $/ГВт, IT — 41%, остальное — инфраструктура.
Главные причины расхождений:
- Разные поколения чипов и их цена.
Bank of America моделирует центр под будущую линейку Nvidia Rubin (2026+),
тогда как Bernstein и Morgan Stanley считают на базе Blackwell (2024).
GPU следующего поколения, судя по оценкам, будут существенно дороже, отсюда и скачок: только по линии GPU оценки могут отличаться более чем на 200 млрд $ на 1 ГВт. - Разный охват инфраструктуры.
- BofA в основном считает «коробку» дата‑центра: здание и всё, что внутри.
- Bernstein включает не только сам DC, но и весь прилегающий энерго‑ и распределительный комплекс: газовые турбины, подстанции, сети внутри кампуса и т.д.
Сам же Nvidia (в лице Дженсена Хуанга) «по своей математике» оценивает 1 ГВт AI‑дата‑центра уже в 60,0–80,0 млрд, из которых∗ 40,0–50,0 млрд — чисто вычислительная часть, то есть потенциальная выручка Nvidia. И, как справедливо замечают эксперты, цены на свои чипы лучше всех знает именно Хуанг.
Скрытая строка: дата‑центр как новый крупный потребитель энергии (и энергетики)
Проблема в том, что мало построить дата‑центр — его нужно ещё и чем‑то питать. С этим сегодня в США и Европе всё хуже:
- существующая энергосистема с трудом переваривает растущий спрос;
- подключение новых мощностей задерживается на годы;
- регуляторы, сети и генерирующие компании не успевают масштабироваться.
Результат: гиперскейлеры начинают сами строить энергетику под свои нужды.
- OpenAI и партнёры (например Oracle) рассматривают вариант собственных электростанций, подстанций и линий электропередачи.
- Оценки: для дата‑центра на 10 ГВт дополнительная генерация может стоить ещё 12,0–20,0 млрд $, если строить свою электростанцию.
- Генераторы и турбины раскупаются на годы вперёд: тот же GE Vernova получает заказы на газовые турбины с горизонтом исполнения 3 года и более.
- Google уже вложил около 3 млрд $ в модернизацию двух ГЭС в Пенсильвании, получая взамен около 3 ГВт мощности (примерно 1 ГВт на каждый миллиард на CAPEX по модернизации).
При этом:
- дизель‑генераторы в DC не подходят как основная генерация: они рассчитаны на кратковременную работу в аварийном режиме, а не на 24/7/365, и киловатт‑час там в 3–8 раз дороже, чем на газовых турбинах.
- Поэтому строятся (или планируются) именно газовые электростанции, топливные элементы и другие долговременные источники.
«Дата‑центры в космосе»: экзотика или реальная альтернатива?
Дефицит энергии на Земле уже подталкивает гигантов смотреть… вверх.
Среди идей, которые обсуждают Google, Microsoft, Amazon и SpaceX:
- орбитальные дата‑центры, питающиеся от солнечных батарей:
- в космосе эффективность солнечных панелей выше примерно в 8 раз за счёт постоянного освещения и отсутствия атмосферы;
- можно использовать вакуум для радиационного охлаждения, снижая потребность в сложных системах отвода тепла.
По неформальным оценкам, сейчас:
- 1 МВт мощности на орбите (включая запуск) может стоить около 35,5 млн $;
- 1 ГВт — это уже ~35,5 млрд $, что не выглядит запредельно дороже, чем строительство таких же мощностей на Земле с учётом энергетической инфраструктуры.
Тема пока экспериментальная, но сам факт её серьёзного обсуждения показывает: война за энергию ради ИИ обостряется до предела.
Почему, несмотря на разговоры о пузыре, все продолжают строить
Логичный вопрос: если риски переинвестирования в AI‑инфраструктуру так велики, почему капиталы не остывают?
Эксперты называют две ключевые причины.
1. Недоинвестировать опаснее, чем переинвестировать
Логика больших игроков такова:
- Кто первым получит лучшие модели или приблизится к AGI, тот может занять непропорционально большую долю рынка и вытеснить конкурентов.
- Отсюда вывод: опоздание стоит дороже, чем «перебор» с дата‑центрами, землёй и мощностями.
Если ресурсов окажется слишком много:
- их можно использовать для внутренних задач (оптимизация бизнес‑процессов, снижение издержек, новые сервисы);
- сдать излишки в аренду как облако;
- перепродать землю, мощности, инфраструктуру.
То есть у переинвестирования есть потолок потерь, а у недоинвестирования — риск «выпасть из гонки» насовсем.
2. Любая инфраструктура для ИИ будет использована
Вторая установка из Силиконовой долины:
«Если у тебя есть железо и инфраструктура, рынок всегда найдёт, чем их загрузить».
Даже сегодня:
- соцсети типа Meta тратят огромные GPU‑ресурсы только на модерацию контента, рекомендательные системы, аналитику;
- избыточная мощность всегда может быть обращена в внутреннюю экономию (автоматизацию, аналитику, сокращение штата), которая сама по себе окупает часть инвестиций.
Финансировать всё это гиганты могут за счёт:
- собственных денежных потоков (прибыль гиперскейлеров);
- долговых рынков (инвестиционный и высокодоходный долг в США);
- частного кредитования и «теневого банкинга» (private credit).
По сути, AI‑дата‑центры становятся новым инфраструктурным циклом, сравнимым по масштабу с историческими волнами строительства железных дорог, электросетей и интернета.
В итоге именно дата‑центры и энергетика, а не только сами модели, становятся самым дорогим фронтом войны за ИИ‑будущее.
Для компаний ставка проста:
лучше рискнуть и построить «слишком много» мощностей, чем опоздать и навсегда остаться клиентом того, кто построил раньше.
Хотите создать уникальный и успешный продукт? СМС – ваш надежный партнер в мире инноваций! Закажи разработки ИИ-решений, LLM-чат-ботов, моделей генерации изображений и автоматизации бизнес-процессов у профессионалов.
ИИ сегодня — ваше конкурентное преимущество завтра!
Тел. +7 (985) 982-70-55
E-mail sms_systems@inbox.ru
Сайт https://www.smssystems.ru/razrabotka-ai/