Уже к концу 2025 года серверы, на которых обучаются и работают большие языковые модели, могут тратить до 23 гигаватт мощности. Это почти половина всей энергии мировых дата‑центров и столько же, сколько потребляет Великобритания. Чуть раньше Международное энергетическое агентство прогнозировало, что к 2030‑му ИИ‑вычисления удвоят спрос на электроэнергию в глобальных облаках. Почему рост оказался таким взрывным — и какие последствия ждут энергосистемы?
Откуда берутся цифры
Де Врис‑Гао пошёл от поставщиков «железа». Тайваньская TSMC, главный подрядчик Nvidia и AMD, в 2024 году удвоила мощности по сборке ИИ‑процессоров. По открытым закупкам он оценил, сколько чипов поступит на рынок, умножил на энергопрофиль каждого GPU и получил 23 ГВт — если кластеры будут задействованы хотя бы наполовину. Схожие расчёты приводят The Guardian и Wired: нынешняя доля ИИ — около 20 % всего энергопотребления дата‑центров, через полтора года это может быть уже 49 %.
Как ИИ обгоняет биткойн
До недавнего времени главным «энергопожирателем» считался биткойн‑майнинг: сеть тратит 15–18 ГВт, чтобы поддерживать добычу новых блоков. Но после перехода Ethereum на Proof‑of‑Stake криптовалютный спрос замер. Зато мета‑Вселенная больших языковых моделей растёт в геометрической прогрессии. Обучение GPT‑4 заняло порядка 25 мегаватт‑часов, но это разовая операция; куда больше ресурсов уходит на ежедневный инференс — каждый запрос к чат‑боту, генерация изображения или перевод текста. С увеличением числа пользователей нагрузка растёт быстрее, чем успевают улучшаться алгоритмы.
Что это значит для энергетики
- Пиковые нагрузки. Один кампус Microsoft/OpenAI в штате Луизиана запросил 4,5 ГВт газа — сравнимо с крупной угольной ТЭС. Сети должны держать подобный резерв, хотя обычная нагрузка ниже.
- Заторможенная декарбонизация. Amazon, Google и Microsoft обещали перейти на нулевой углерод к 2030 году, но уже признают: рост ИИ мешает планам. Чтобы не терять клиентам время ожидания, компании строят новые газовые турбины, а значит, выбросы CO₂ идут вверх.
- Локальные конфликты. В США и Ирландии регуляторы обсуждают мораторий на строительство дата‑центров без плана подключения ВИЭ, иначе сетям грозят опережающие отключения жилых районов.
Насколько прогноз реалистичен
Есть три переменные:
- Цепочка поставок. Санкции на экспорт ИИ‑чипов в КНР или перебои у TSMC могут замедлить ввод нового «железа».
- Энергоэффективность моделей. Компактные LLM вроде DeepSeek R1 или Mistral Tiny показывают, что некоторые задачи решаются локально, без гигантских облаков.
- Суверенный ИИ. ЕС, Китай, ОАЭ и даже отдельные штаты США строят параллельные кластеры, чтобы не зависеть от Big Tech. Этот дублирующий подход увеличивает суммарное потребление.
Если хотя бы два фактора сыграют на понижение, планка в 23 ГВт будет достигнута позже. Но тренд останется восходящим: спрос на ИИ‑вычисления растёт быстрее, чем производители улучшают энергоотдачу.
Что предлагают эксперты
- Прозрачная отчётность. Выделять в корпоративных отчётах энергию на обучение и инференс отдельно, а не объединять их с «прочей облачной нагрузкой».
- КПД как KPI. Ограничивать вычислительные FLOPS на ватт ещё на стадии техзадания модели.
- Увязка с ВИЭ. Строить новые кампусы рядом с крупными солнечными или ветропарками, чтобы не плодить газовые станции.
- Ставка на «узкие» модели. Поддерживать стартапы, которые предлагают локальные решения для конкретных задач бизнеса.
Итог
Если прогнозы исполнятся, уже через полтора года искусственный интеллект станет главным потребителем энергии в цифровой экономике, обогнав криптовалюты и классические облачные сервисы. Либо индустрия найдёт способы сделать модели легче и умнее, либо энергокомпаниям придётся рассматривать каждый новый чат‑бот как повод запускать ещё одну турбину. Компромисс между прогрессом и устойчивостью пока не найден — и именно от него будет зависеть, каким будет наш «умный» интернет к концу десятилетия.