Найти в Дзене
ИнфоЛис (InfoLis)

Голодный интеллект: почему электроэнергия стала главным тормозом развития ИИ

Мы привыкли думать, что прогресс искусственного интеллекта (ИИ) тормозят недостаточно мощные алгоритмы или нехватка данных. Но в последние два года индустрия столкнулась с неожиданно прозаичным, а оттого более серьезным противником — нехваткой электричества и физической инфраструктуры для его доставки. Гонка за созданием сверхразума превратилась в битву за мегаватты, и в этой битве законы физики пока выигрывают у амбиций Кремниевой долины. Чтобы понять масштаб проблемы, достаточно взглянуть на цифры. Первая нейросеть-трансформер от Google Brain в 2017 году потребляла около 4,5 тыс. ватт. Флагманская модель Google PaLM, запущенная весной 2022 года, «ела» уже 2,6 млн ватт, а представленная летом 2024 года модель Llama от Meta* (признана экстремистской организацией запрещена в РФ) требовала уже 25,3 млн ватт. Всего за 7 лет потребление электроэнергии дата-центрами для ИИ выросло в 5000 раз. И это только цветочки. Согласно отчету Международного энергетического агентства (МЭА), к 2030 году
Оглавление

Мы привыкли думать, что прогресс искусственного интеллекта (ИИ) тормозят недостаточно мощные алгоритмы или нехватка данных. Но в последние два года индустрия столкнулась с неожиданно прозаичным, а оттого более серьезным противником — нехваткой электричества и физической инфраструктуры для его доставки. Гонка за созданием сверхразума превратилась в битву за мегаватты, и в этой битве законы физики пока выигрывают у амбиций Кремниевой долины.

Андроид. Иллюстрация сгенерирована нейросетью
Андроид. Иллюстрация сгенерирована нейросетью

Аппетит, который растет экспоненциально

Чтобы понять масштаб проблемы, достаточно взглянуть на цифры. Первая нейросеть-трансформер от Google Brain в 2017 году потребляла около 4,5 тыс. ватт. Флагманская модель Google PaLM, запущенная весной 2022 года, «ела» уже 2,6 млн ватт, а представленная летом 2024 года модель Llama от Meta* (признана экстремистской организацией запрещена в РФ) требовала уже 25,3 млн ватт. Всего за 7 лет потребление электроэнергии дата-центрами для ИИ выросло в 5000 раз.

И это только цветочки. Согласно отчету Международного энергетического агентства (МЭА), к 2030 году мировое потребление электроэнергии дата-центрами превысит 945 ТВт·ч. Для понимания масштаба: это больше, чем потребляет вся Япония сегодня. К 2035 году при пессимистичном сценарии эта цифра может достичь 1700 ТВт·ч. Спрос на мощности центров обработки данных (ЦОД) растет с прогнозируемой скоростью 19 - 22% в год и к 2030 году может более чем утроиться, достигнув 219 гигаватт.

Причина такой «прожорливости» кроется в самой архитектуре современных нейросетей. Обучение больших языковых моделей (LLM) требует работы тысяч графических процессоров (GPU) 24/7 на протяжении месяцев. Но самое страшное для энергетиков даже не обучение, а фаза «инференса» (inference) — момент, когда нейросеть отвечает на ваш запрос.

Проклятие инференса: когда каждый запрос стоит лампочки

Долгое время индустрия фокусировалась на энергозатратах при обучении моделей. Однако сейчас стало понятно: основная нагрузка на сеть ляжет именно на этапе эксплуатации. Согласно данным Стэнфордского института ИИ, стоимость запросов к моделям за два года подешевела в 285 раз. Если в ноябре 2022 года запрос к ChatGPT-3.5 стоил $20 за миллион токенов, то сейчас цены упали до копеечных значений. Это привело к взрывному росту числа пользователей.

Кажущаяся дешевизна для потребителя оборачивается колоссальными счетами за электричество для провайдеров. Google опубликовал данные, что средний текстовый запрос к Gemini Apps потребляет 0,24 Вт·ч. Умножьте это на миллиарды запросов в день, и сумма становится астрономической.

Цифра дня: один крупный центр обработки данных потребляет столько же электричества, сколько 100 тысяч домохозяйств, а крупнейшие — в 20 раз больше.

Андроид. Иллюстрация сгенерирована нейросетью
Андроид. Иллюстрация сгенерирована нейросетью

Инфраструктурный коллапс: «сеть полна»

Однако главная проблема даже не в объемах генерации, а в невозможности доставить эту энергию до потребителя. Энергосистемы крупнейших хабов, таких как Северная Вирджиния (США), Дублин, Франкфурт или Сингапур, работают на пределе возможностей.

По оценке МЭА, около 20% проектов новых ЦОДов могут быть задержаны или отменены именно из-за ограничений по подключению к электросетям. Очереди на подключение растягиваются на годы. В США срок строительства новых линий электропередач (ЛЭП) достигает 8 лет, а поставки трансформаторов и турбин для новых газовых станций уже расписаны до конца десятилетия.

В России ситуация зеркальна. Три четверти всех ЦОДов страны сосредоточены в Москве и области, где энергосистема уже входит в состояние дефицита.

Парадокс эффективности: закон Мура проигрывает

Казалось бы, производители чипов должны решить проблему. Действительно, энергоэффективность конкретных вычислений растет. Nvidia утверждает, что их новый чип H200 показывает в 1,4 раза большую производительность на ватт, чем H100. Но здесь вступает в силу так называемый «парадокс производительности на ватт», описанный Ассоциацией полупроводниковой промышленности (SIA).

Суть парадокса проста: каждое улучшение эффективности чипов съедается ростом масштабов задач. Более эффективные чипы позволяют запускать еще большие модели с еще большим количеством параметров, которые требуют еще больше энергии. В итоге абсолютное потребление энергии системой не падает, а растет.

Аналитики KAIST TeraLab прогнозируют, что к 2038 году мощность одного GPU-ускорителя превысит 15 кВт — это в 20 раз больше, чем сегодня. Стойка с такими чипами будет потреблять под 150 - 200 кВт. Традиционные системы охлаждения и питания просто не рассчитаны на такие нагрузки.

Андроид. Иллюстрация сгенерирована нейросетью
Андроид. Иллюстрация сгенерирована нейросетью

Стратегический сдвиг: выиграет тот, у кого есть атом

Энергетический кризис ИИ меняет не только конструкцию серверов, но и географию индустрии и глобальный баланс сил. Если раньше дата-центры строили рядом с потребителем, например, мегаполисами, то теперь главный критерий — наличие дешевой и стабильной энергии. Технологические гиганты начали охоту за такими регионами.

Например, Microsoft строит подводные дата-центры у берегов Шотландии и инвестирует в проекты в Скандинавии. Google осваивает Финляндию, используя холодный климат для естественного охлаждения и доступ к гидроэнергии.

Но самая интересная тенденция — возвращение интереса к атомной энергетике. Крупные игроки уже ведут переговоры с операторами АЭС о строительстве «ядерных вычислительных кластеров» — зон, сочетающих малые модульные реакторы (SMR) и гипермасштабные дата-центры. В гонке за ИИ выигрывают не те, у кого лучшие алгоритмы, а те, кто может обеспечить стабильные мегаватты 24/7, желательно с низким углеродным следом.

Решение внутри проблемы: как ИИ помогает себе сам

Парадоксально, но выход из энергетического тупика может предложить сам ИИ. Во-первых, ИИ-алгоритмы уже сегодня используются для оптимизации работы электросетей. По оценке МЭА, применение ИИ для управления существующими ЛЭП позволяет «разблокировать» до 175 ГВт дополнительной пропускной способности без прокладки новых линий — это больше, чем суммарный прирост нагрузки от дата-центров до 2030 года.

Во-вторых, происходит смена парадигмы в разработке самих моделей. Вместо гигантов вроде GPT и Llama индустрия переходит к созданию небольших, узкоспециализированных и энергоэффективных алгоритмов. Техники дистилляции и квантования позволяют моделям вроде Microsoft Phi-3-mini (3,8 млрд параметров) показывать результаты, сопоставимые с PaLM (540 млрд параметров), при этом затрачивая в 142 раза меньше ресурсов.

Третье направление — создание специализированных чипов (NPU — Neural Processing Units). В отличие от универсальных GPU, NPU проектируются исключительно под задачи инференса и жертвуют гибкостью ради эффективности. Например, корейская компания Furiosa AI создала чип, который при работе потребляет всего 150 Вт против 350+ Вт у топовых GPU, показывая при этом на 40% лучшую производительность на ватт в стандартных тестах.

Андроид. Иллюстрация сгенерирована нейросетью
Андроид. Иллюстрация сгенерирована нейросетью

Проблема черного ящика: мы не знаем правды

Любой анализ энергопотребления ИИ сегодня сталкивается с фундаментальной проблемой — отсутствием данных. Компании вроде OpenAI, Google и Anthropic рассматривают информацию о нагрузке на свои дата-центры как коммерческую тайну. Как отмечает MIT Technology Review, нет ни согласованной методологии измерения, ни регулирующих органов, которые могли бы обязать компании раскрывать эти цифры.

Существующие оценки строятся на анализе open-source моделей, которые могут сильно отличаться от закрытых аналогов. Эта «слепота» мешает энергетикам планировать развитие сетей, а экологам — оценивать реальный углеродный след технологии.

Заключение: Физика против математики

Мы стоим на пороге новой реальности. Эра «облачной» эйфории, когда казалось, что вычислительные мощности бесконечны и могут масштабироваться по щелчку пальцев, заканчивается. Цифровая экономика возвращается в физический мир, жестко привязанный к трансформаторным подстанциям, охлаждающим контурам и киловатт-часам.

Энергия стала не просто статьей расходов, а стратегическим ресурсом, ограничивающим развитие самой перспективной технологии человечества. ИИ может стать самым умным творением человека, но чтобы он мог мыслить, нам придется научиться добывать и поставлять ему электричество в таких масштабах, к которым мировая энергетика пока просто не готова. Битва за искусственный интеллект окончательно превратилась в битву за мегаватты.

*Meta (запрещена в РФ) — компания признана в России экстремистской организацией и запрещена.