Вы, возможно, не знали, но искусственный интеллект — это, прежде всего, энергия. Каждый раз, когда Grok или Midjourney рисуют вам смешного котика в скафандре, где-то с надрывом гудят огромные трансформаторы, а обучение одной крупной нейросети выбрасывает в атмосферу столько же углерода, сколько несколько автомобилей за весь срок их службы. Пришло время заглянуть под капот нейросетей и понять, какую цену мы на самом деле платим за каждый умный ответ.
При чем здесь энергия
Человеческий мозг — это чудо энергоэффективности. Чтобы сочинить симфонию или решить сложное уравнение, нам нужно всего около 20 Ватт — столько же, сколько потребляет слабенькая лампочка, освещающая изнутри ваш холодильник. Нейросети же устроены иначе. Чтобы имитировать работу даже крошечного участка мозга, ИИ требуются тысячи мощных видеокарт, каждая из которых в среднем съедает по 700 ватт и выше. Говоря проще, каждая такая карта потребляет электричество как хороший электрочайник или микроволновка. И когда мы запускаем обучение новой модели, эти «микроволновки» не выключаются месяцами.
Нейросеть — это, по сути, гигантская таблица с миллиардами чисел. При каждом запросе процессор должен перемножить эти числа друг на друга, и это, по понятным причинам, требует колоссального напряжения в сети. Но самое ироничное, что почти половина всей входящей энергии уходит даже не на вычисления, а на охлаждение. Если огромные вентиляторы и системы водяного охлаждения остановятся хоть на пару минут, чипы просто расплавятся. Мы буквально выжимаем из планеты все соки ради того, чтобы получить быстрый ответ на свой вопрос.
Цена запроса
Представьте, что в вашем районе внезапно решили построить завод, который потребляет столько же энергии, сколько десятки тысяч жилых домов. Примерно так чувствуют себя энергетические компании, когда рядом с городом вырастает новый дата-центр: ведь цена всего одного сложного запроса к ИИ в масштабах города — это чей-то выключенный кондиционер, холодильник или телевизор. Именно поэтому в некоторых штатах США и странах Европы уже обсуждают запреты на строительство новых ИИ-хабов — местные энергосети просто не вывезут такую нагрузку.
Александр Дорошин, заместитель декана факультета энергетики МТИ:
«Если среднестатистический завод работает по более-менее стандартному технологическому циклу, то для нейросетевого дата-центра любой скачок напряжения или потеря питания невероятно критичны, означая риск перегрева и потери вычислительных процессов. Поэтому для энергосистемы такой дата-центр — это не просто еще один крупный объект, а крупный объект с многократной нагрузкой, под которую часто приходится отдельно усиливать и сеть, и резервирование».
Сегодня строительство центров обработки данных превратилось из сугубо инженерной задачи в сложнейшую логистическую операцию по поиску свободных мощностей. Корпорациям вроде Google или Microsoft уже давно не хватает обычной розетки, и это привело к тому, что IT-гиганты больше не хотят зависеть от городских сетей. Они начинают скупать электростанции целиком или инвестировать миллиарды в закрытые частные линии, фактически создавая параллельную энергосистему, заточенную под нужды единственного алгоритма.
Любопытно, что при всем при этом корпорации оказались в патовой ситуации. С одной стороны, они стремятся к тому, чтобы на 100% стать «зелеными», выстраивая гигантские поля ветряков и солнечных панелей. Но капризному железу нейросетей плевать на экологию — чтобы ваш чат-бот не завис в самый неподходящий момент, ему нужен стабильный ток здесь и сейчас, без пауз на облачность. Именно этот тупик заставляет условный Google одной рукой инвестировать в ветряки, а другой — судорожно скупать доли в атомных электростанциях.
Александр Дорошин, заместитель декана факультета энергетики МТИ:
«Солнце и ветер хороши лишь как дополнительные источники энергии. В качестве основы для энергоснабжения ИИ-дата-центра использовать их не получится потому, что у них нет главного — гарантированной стабильной выдачи мощности в любой момент времени. Для таких объектов критична предсказуемость: дата-центру все равно, ночь сейчас, облачность или штиль — и энергия ему нужна круглосуточно, вне зависимости от погодных условий».
И что дальше?
Уже сейчас ИИ‑дата‑центры тратят порядка 1000–1600 ТВт/ч в год. Эта цифра сопоставима с энергопотреблением крупнейших стран вроде России или Японии, а к 2035 году и вовсе может вырасти до 4,4% мирового энергопотребления. По этой причине (вместо того чтобы строить всё более огромные дата-центры) инженеры начали работать над диетой для алгоритмов. Выяснилось, что нейросетям не обязательно перемножать миллиарды чисел с идеальной точностью, чтобы выдать хороший результат. Появились методы квантования и дистилляции — когда огромную модель сжимают до компактных размеров, сохраняя её интеллект, но радикально снижая аппетит.
Александр Дорошин, заместитель декана факультета энергетики МТИ:
«Физический предел роста искусственного интеллекта вполне реален — и главным ограничением для него станет мощность сетей, а также нехватка времени на их строительство. ИИ развивается быстрее, чем сможет перестроиться энергетика. Поэтому на первый план выходит уже не вопрос о том, можно ли сделать ИИ еще мощнее и умнее, а о том, успеет ли за нейропрогрессом вся остальная инфраструктура».
Слова эксперта подтверждают опасения ученых. Как бы сильно мы ни сжимали алгоритмы, физику обмануть не получится: интеллект планетарного масштаба требует планетарных же мощностей. Мы упираемся в предел, где косметические улучшения больше не работают. Поэтому ученые и программисты всё чаще говорят о том, что ИИ — это едва ли не самый большой вызов для мировой энергетики со времен изобретения лампочки. Либо мы научимся производить дешевую и чистую энергию в невероятных масштабах, либо прогресс нейросетей упрется в физический потолок. Возможно, именно эта энергожажда подтолкнет человечество к созданию новых типов двигателей или освоению термоядерного синтеза — и в этом случае ИИ превратится из пожирателя ресурсов в главный двигатель технологической революции.