Добавить в корзинуПозвонить
Найти в Дзене
АРМК

Тепловоз идёт на сервер: великое охлаждение.

Как тепловые выбросы промышленности «охладят голову» искусственному интеллекту. Гигантские склады с серверами, где хранятся наши фото, видео и работает самая совершенная на сегодняшний день вычислительная технология — искусственный интеллект, — потребляют колоссальное количество электричества. Однако казус в том, что львиная доля этой энергии уходит вовсе не на расчёты, а лишь на поддержку чипов в рабочем состоянии. Это целая бездна энергопотребления, которая нужна только для того, чтобы миллионы процессоров не расплавились. Как вы уже понимаете, речь о троглодитах, которые называются «системы охлаждения». Миллионы плотно расположенных серверов выделяют столько тепла, что угрожают их же функционалу и вообще работоспособности. Проблема столь обширна, что для оценки энергоэффективности дата-центров введён параметр PUE (Power Usage Effectiveness) — отношение общего энергопотребления центра обработки данных к потреблению его ИТ-оборудования. Таким образом, чем ближе его значение к 1, тем
Как тепловые выбросы
промышленности
«охладят голову»
искусственному интеллекту.

Гигантские склады с серверами, где хранятся наши фото, видео и работает самая совершенная на сегодняшний день вычислительная технология — искусственный интеллект, — потребляют колоссальное количество электричества. Однако казус в том, что львиная доля этой энергии уходит вовсе не на расчёты, а лишь на поддержку чипов в рабочем состоянии. Это целая бездна энергопотребления, которая нужна только для того, чтобы миллионы процессоров не расплавились. Как вы уже понимаете, речь о троглодитах, которые называются «системы охлаждения».

Миллионы плотно расположенных серверов выделяют столько тепла, что угрожают их же функционалу и вообще работоспособности. Проблема столь обширна, что для оценки энергоэффективности дата-центров введён параметр PUE (Power Usage Effectiveness) — отношение общего энергопотребления центра обработки данных к потреблению его ИТ-оборудования. Таким образом, чем ближе его значение к 1, тем эффективнее работает дата-центр, а показатели выше 2,5 свидетельствуют о неэффективном расходовании ресурсов.

А что такое эти 2,5 раза? Это 40%: столько энергии тратится только на охлаждение. Однако опыт показывает, что доля этих энергозатрат ЦОДов бывает и выше. Так и получается, что по данным на 2024 год, дата-центры тратили около 300 тераватт-часов (ТВт/ч) энергии только на терморегуляцию. И это при том, что в 2023 году общее энергопотребление всех дата-центров мира составляло примерно 460 ТВт/ч.

При этом, поскольку объёмы данных растут, мы строим всё новые и новые центры обработки. Существующие прогнозы говорят, что к 2030 году затраты энергии на охлаждение вырастут примерно до 900 ТВт/ч в год. Так что, будучи одной из основных причин усугубления мирового энергетического кризиса, охлаждение столь прожорливых объектов требует переосмысления самой его парадигмы. Например, можно использовать не электричество, а… отработанное тепло с соседних заводов.

Такое неожиданное и элегантное решение предложили инженеры Нью-Йоркского университета. В его основе лежат цеолиты — недорогие кристаллические минералы с микроскопическими порами, — настоящие губки для водяного пара. Их свойство простое, но гениальное: сухой цеолит при контакте с паром впитывает его и выделяет тепло. А если его основательно нагреть — он отдаёт влагу, позволяя использовать запасённую энергию, и, высыхая, остаётся готовым к повторному циклу. Фактически, это просто почти готовая тепловая батарея.

Охлаждение происходит естественно за счёт процесса испарения. Допустим, на ближайшем к ЦОД предприятии или НПЗ есть отработанное тепло в виде пара или горячего воздуха, которое обычно просто выбрасывается. Это тепло (ниже 200°C) используется для сушки цеолита, «заряжая» его энергией. Далее высушенный цеолит в контейнерах везут в ближайший центр обработки данных, что, как правило, делает логистику вполне эффективной. Уже после монтажа на месте, тёплый воздух от серверов испаряет воду, которая впитывается сухим цеолитом, и процесс адсорбции создаёт мощный охлаждающий эффект, заменяя обычные энергоёмкие кондиционеры.

Термодинамическое моделирование показало, что такой подход позволяет снизить потребление электроэнергии на охлаждение дата-центра на колоссальные 86%, а общие затраты на энергию для пары «завод-ЦОД» — более чем на 75%. То есть вместо 40% сегодня, «завтра» система охлаждения может съесть всего около 5,6% энергии от общего потребления центром обработки.

Но, конечно, не всё так просто. Появляются сложности с водой: общее её потребление в системе вырастет на 15–25% из-за испарения. Тем временем это несколько компенсируется резким и тоже вполне значительным падением водопотребления на самом заводе. На это повлияет, с одной стороны, избавление от необходимости сбрасывать тепло в градирни, а с другой — возможность повторного использования воды, выделившейся при сушке цеолита.

В заключение нужно сказать, что сегодня система в стадии моделирования, так что это пока теория. Инженерам предстоит создать надёжные и долговечные цеолитные модули, а бизнесу — наладить логистику «теплового угля». Но сама идея переворачивает привычный взгляд: отработанное тепло перестаёт быть проблемой утилизации, а становится ценным ресурсом. Если превратить охлаждение в задачу по доставке холода, то тепловые батареи на цеолитах помогут растущей цифровой экономике не сжечь мировую энергосистему.

АРМК, по материалам NYU.