Найти в Дзене
GadgetPage

Энергия течёт к ИИ. Майнеры уступают первенство.

Оглавление

Уже к концу 2025 года серверы, на которых обучаются и работают большие языковые модели, могут тратить до 23 гигаватт мощности. Это почти половина всей энергии мировых дата‑центров и столько же, сколько потребляет Великобритания. Чуть раньше Международное энергетическое агентство прогнозировало, что к 2030‑му ИИ‑вычисления удвоят спрос на электроэнергию в глобальных облаках. Почему рост оказался таким взрывным — и какие последствия ждут энергосистемы?

Откуда берутся цифры

Де Врис‑Гао пошёл от поставщиков «железа». Тайваньская TSMC, главный подрядчик Nvidia и AMD, в 2024 году удвоила мощности по сборке ИИ‑процессоров. По открытым закупкам он оценил, сколько чипов поступит на рынок, умножил на энергопрофиль каждого GPU и получил 23 ГВт — если кластеры будут задействованы хотя бы наполовину. Схожие расчёты приводят The Guardian и Wired: нынешняя доля ИИ — около 20 % всего энергопотребления дата‑центров, через полтора года это может быть уже 49 %.

Как ИИ обгоняет биткойн

До недавнего времени главным «энергопожирателем» считался биткойн‑майнинг: сеть тратит 15–18 ГВт, чтобы поддерживать добычу новых блоков. Но после перехода Ethereum на Proof‑of‑Stake криптовалютный спрос замер. Зато мета‑Вселенная больших языковых моделей растёт в геометрической прогрессии. Обучение GPT‑4 заняло порядка 25 мегаватт‑часов, но это разовая операция; куда больше ресурсов уходит на ежедневный инференс — каждый запрос к чат‑боту, генерация изображения или перевод текста. С увеличением числа пользователей нагрузка растёт быстрее, чем успевают улучшаться алгоритмы.

Что это значит для энергетики

  • Пиковые нагрузки. Один кампус Microsoft/OpenAI в штате Луизиана запросил 4,5 ГВт газа — сравнимо с крупной угольной ТЭС. Сети должны держать подобный резерв, хотя обычная нагрузка ниже.
  • Заторможенная декарбонизация. Amazon, Google и Microsoft обещали перейти на нулевой углерод к 2030 году, но уже признают: рост ИИ мешает планам. Чтобы не терять клиентам время ожидания, компании строят новые газовые турбины, а значит, выбросы CO₂ идут вверх.
  • Локальные конфликты. В США и Ирландии регуляторы обсуждают мораторий на строительство дата‑центров без плана подключения ВИЭ, иначе сетям грозят опережающие отключения жилых районов.
-2

Насколько прогноз реалистичен

Есть три переменные:

  1. Цепочка поставок. Санкции на экспорт ИИ‑чипов в КНР или перебои у TSMC могут замедлить ввод нового «железа».
  2. Энергоэффективность моделей. Компактные LLM вроде DeepSeek R1 или Mistral Tiny показывают, что некоторые задачи решаются локально, без гигантских облаков.
  3. Суверенный ИИ. ЕС, Китай, ОАЭ и даже отдельные штаты США строят параллельные кластеры, чтобы не зависеть от Big Tech. Этот дублирующий подход увеличивает суммарное потребление.
    Если хотя бы два фактора сыграют на понижение, планка в 23 ГВт будет достигнута позже. Но тренд останется восходящим: спрос на ИИ‑вычисления растёт быстрее, чем производители улучшают энергоотдачу.

Что предлагают эксперты

  • Прозрачная отчётность. Выделять в корпоративных отчётах энергию на обучение и инференс отдельно, а не объединять их с «прочей облачной нагрузкой».
  • КПД как KPI. Ограничивать вычислительные FLOPS на ватт ещё на стадии техзадания модели.
  • Увязка с ВИЭ. Строить новые кампусы рядом с крупными солнечными или ветропарками, чтобы не плодить газовые станции.
  • Ставка на «узкие» модели. Поддерживать стартапы, которые предлагают локальные решения для конкретных задач бизнеса.
-3

Итог

Если прогнозы исполнятся, уже через полтора года искусственный интеллект станет главным потребителем энергии в цифровой экономике, обогнав криптовалюты и классические облачные сервисы. Либо индустрия найдёт способы сделать модели легче и умнее, либо энергокомпаниям придётся рассматривать каждый новый чат‑бот как повод запускать ещё одну турбину. Компромисс между прогрессом и устойчивостью пока не найден — и именно от него будет зависеть, каким будет наш «умный» интернет к концу десятилетия.