Найти в Дзене

Как ChatGPT перегревает планету: краш-тест совести в эпоху ИИ

Когда я в очередной раз попросил ChatGPT написать мне функцию для сортировки массива (да, я ленивый), меня осенило: а сколько электричества сожрал этот невинный запрос? Оказалось – немало. И если умножить это на миллиарды запросов ежедневно, получается, что мы все вместе превращаем планету в сауну. Только без приятных ощущений. Добро пожаловать в эпоху, где каждый чат с ИИ – это микроскопический, но вполне реальный вклад в глобальное потепление. Звучит драматично? Ну так оно и есть. 🌍 Давайте начнем с главного: современные языковые модели – это не какие-то легковесные скрипты, которые крутятся на вашем старом ноутбуке. Это гигантские вычислительные монстры, требующие тысячи серверов, работающих круглосуточно. Обучение GPT-3, например, по некоторым оценкам, потребовало около 1287 мегаватт-часов электроэнергии. Это примерно столько же, сколько средний американский дом потребляет за 120 лет. Один раз. Для одной модели. А ведь есть еще GPT-4, Claude, Gemini и куча других голодных до элект
Оглавление
   Это изображение сгенерировано с помощью модели FLUX.2 Pro
Это изображение сгенерировано с помощью модели FLUX.2 Pro

Когда я в очередной раз попросил ChatGPT написать мне функцию для сортировки массива (да, я ленивый), меня осенило: а сколько электричества сожрал этот невинный запрос? Оказалось – немало. И если умножить это на миллиарды запросов ежедневно, получается, что мы все вместе превращаем планету в сауну. Только без приятных ощущений.

Добро пожаловать в эпоху, где каждый чат с ИИ – это микроскопический, но вполне реальный вклад в глобальное потепление. Звучит драматично? Ну так оно и есть. 🌍

Энергетический аппетит нейросетей: цифры без прикрас

Давайте начнем с главного: современные языковые модели – это не какие-то легковесные скрипты, которые крутятся на вашем старом ноутбуке. Это гигантские вычислительные монстры, требующие тысячи серверов, работающих круглосуточно.

Обучение GPT-3, например, по некоторым оценкам, потребовало около 1287 мегаватт-часов электроэнергии. Это примерно столько же, сколько средний американский дом потребляет за 120 лет. Один раз. Для одной модели. А ведь есть еще GPT-4, Claude, Gemini и куча других голодных до электричества товарищей.

Но это только обучение. Инференс (вывод) – то есть сам процесс ответа на ваши запросы – тоже не бесплатен в плане энергии. Каждый раз, когда вы спрашиваете нейросеть о рецепте пасты или просите написать код, где-то в дата-центре начинают усиленно вращаться вентиляторы охлаждения.

Сравнение с привычными действиями

Чтобы понять масштаб, давайте сравним. Один запрос к ChatGPT потребляет примерно в 5-10 раз больше энергии, чем обычный поисковый запрос в Google. Если Google-запрос – это как включить лампочку на несколько секунд, то ChatGPT – это уже включить микроволновку.

Конечно, точные цифры варьируются в зависимости от длины ответа, сложности запроса и модели. Но общий тренд понятен: ИИ прожорлив. И чем умнее модель, тем больше она ест.

Дата-центры: невидимые электростанции нашего времени

Знаете, что общего у Google, Microsoft, Amazon и всех крупных ИИ-компаний? Они владеют дата-центрами размером с небольшой город. И эти центры потребляют столько электричества, что некоторые страны позавидуют.

По данным Международного энергетического агентства, дата-центры в мире потребляют около 1-2% всей произведенной электроэнергии. И это до бума генеративного ИИ. С учетом взрывного роста популярности ChatGPT и компании, эта цифра может удвоиться к 2026 году.

Хуже того – охлаждение. Серверы нагреваются как сковородки на максимальном огне, и их нужно постоянно остужать. Для этого используются мощные системы кондиционирования, которые сами по себе жрут энергию как не в себя. Получается замкнутый круг: чтобы охладить машины, мы тратим еще больше энергии, которая в итоге тоже превращается в тепло.

География проблемы

Интересный момент: не все дата-центры одинаково вредны. Если центр находится в Норвегии или Исландии, где электричество вырабатывается в основном из возобновляемых источников (гидроэлектростанции, геотермальные источники), углеродный след заметно меньше. Но если центр стоит где-нибудь в регионе, где энергия производится из угля – привет, дополнительные тонны CO2 в атмосфере.

Компании это понимают и пытаются строить дата-центры в «зеленых» локациях. Microsoft даже экспериментировал с подводными дата-центрами, чтобы использовать естественное охлаждение океанской воды. Звучит как сюжет научной фантастики, но это реальность 2024 года.

Углеродный след: от обучения до эксплуатации

Углеродный след ИИ-модели можно разбить на несколько этапов. Первый – это само обучение модели. Как я уже упомянул, GPT-3 при обучении выбросил в атмосферу примерно 552 тонны CO2. Это эквивалентно тому, что один человек совершил бы 550 перелетов туда-обратно между Барселоной и Нью-Йорком. Впечатляет, правда?

Второй этап – эксплуатация. Когда модель уже обучена и начинает отвечать на запросы миллионов пользователей ежедневно, углеродный след продолжает расти. Правда, здесь он размазывается на всех пользователей, так что ваш личный вклад – это доли грамма CO2 на запрос. Но когда запросов миллиарды, эти доли превращаются в тонны.

Скрытые компоненты

Но это еще не все. Есть и третий, часто игнорируемый компонент – производство оборудования. Серверы, графические процессоры (GPU), системы хранения данных – все это нужно произвести. А производство высокотехнологичной электроники само по себе энергозатратно и связано с добычей редкоземельных металлов, что тоже не добавляет экологичности.

Плюс утилизация. Серверы устаревают, и их нужно утилизировать или перерабатывать. Электронные отходы – это отдельная головная боль для экологов, и ИИ-индустрия вносит в эту проблему свой весомый вклад.

Попытки зеленого ИИ: что делают компании

К счастью, не все так безнадежно. Крупные компании понимают, что если они продолжат в том же духе, рано или поздно им придется отвечать на неудобные вопросы. Поэтому они начали принимать меры.

Google, например, заявляет, что их дата-центры работают на 100% возобновляемой энергии. Правда, тут есть нюанс: это не значит, что каждый джоуль энергии, потребляемый центром, приходит напрямую от солнечных панелей. Скорее, Google покупает столько зеленой энергии, сколько потребляет в целом, компенсируя таким образом свой углеродный след.

Microsoft пошел еще дальше и пообещал стать углеродно-нейтральным к 2030 году. Более того, они планируют к 2050 году убрать из атмосферы весь CO2, который компания выбросила с момента своего основания. Амбициозно? Безусловно. Реалистично? Посмотрим.

Оптимизация алгоритмов

Помимо перехода на зеленую энергию, есть еще один путь – делать сами модели эффективнее. И здесь начинается настоящая магия программирования.

Исследователи работают над методами, которые позволяют обучать модели с меньшими затратами энергии. Это и техники дистилляции (когда большая модель «обучает» маленькую, более эффективную), и прунинг (урезание ненужных связей в нейросети), и квантизация (снижение точности вычислений там, где это допустимо).

Также активно развиваются так называемые пограничные (edge) модели – компактные версии ИИ, которые могут работать прямо на вашем устройстве, не требуя постоянного обращения к серверам. Например, голосовые помощники на смартфонах все чаще обрабатывают запросы локально, экономя и энергию, и ваш трафик.

Вода: забытый ресурс охлаждения

Пока все говорят про электричество и CO2, есть еще один ресурс, который тихо исчезает – вода. Многие дата-центры используют воду для охлаждения серверов. И речь идет о миллионах литров.

Например, крупный дата-центр может потреблять столько же воды в день, сколько небольшой город. В регионах, где с водой и так напряженно (привет, Калифорния), это создает дополнительное давление на ресурсы.

Microsoft признался, что обучение GPT-3 потребовало около 700 тысяч литров воды. Это примерно столько, сколько нужно для производства нескольких сотен автомобилей. И это только одна модель, одно обучение.

Альтернативные методы охлаждения

Индустрия ищет альтернативы. Некоторые компании экспериментируют с иммерсионным охлаждением – серверы буквально погружают в специальную жидкость, которая эффективнее отводит тепло. Другие ставят дата-центры в холодных климатических зонах, чтобы использовать естественное охлаждение воздухом.

Есть даже идеи использовать отработанное тепло дата-центров для обогрева жилых домов. В Финляндии, например, уже реализованы такие проекты. Получается выигрышная ситуация для всех: серверы охлаждаются, а люди получают дешевое тепло.

Этический парадокс: использовать ИИ или спасти планету?

Вот тут начинается самое интересное. С одной стороны, ИИ помогает решать экологические проблемы. Нейросети оптимизируют маршруты доставки, снижая расход топлива. Они прогнозируют погоду и климатические изменения. Они помогают разрабатывать новые материалы и источники энергии.

С другой стороны, сам ИИ – это часть проблемы. Получается классическая дилемма: чтобы бороться с глобальным потеплением при помощи ИИ, мы усугубляем глобальное потепление использованием ИИ.

Как программист, я вижу здесь типичную задачу оптимизации с конфликтующими критериями. Нельзя просто взять и отказаться от ИИ – слишком много процессов уже завязано на него. Но и продолжать наращивать мощности, не думая о последствиях, тоже нельзя.

Личная ответственность пользователя

Что можем сделать мы, обычные пользователи? Честно говоря, не так уж много. Можно осознаннее подходить к использованию ИИ – не спамить запросами ради забавы, не генерировать километры текста там, где хватит абзаца.

Можно выбирать сервисы компаний, которые серьезно относятся к экологии. Правда, тут информация часто закрыта, и понять, кто реально «зеленый», а кто просто занимается гринвошингом, непросто.

Но главное – не закрывать глаза на проблему. Чем больше людей будут говорить об углеродном следе ИИ, тем больше давления будет на компании, чтобы они действительно что-то делали, а не просто рапортовали о «стремлении к углеродной нейтральности к 2050 году».

Будущее: куда мы движемся

Индустрия ИИ растет экспоненциально. Каждый год модели становятся больше, умнее и прожорливее. GPT-4 требует еще больше ресурсов, чем GPT-3. Следующие поколения будут требовать еще больше.

Если ничего не менять, к 2030 году ИИ-индустрия может стать одним из крупнейших потребителей энергии на планете. Некоторые прогнозы говорят о 3-4% от всего мирового потребления электричества. Это уровень целой страны размером с Германию.

Но есть и оптимистичные сценарии. Если темпы развития зеленой энергетики продолжат расти, если компании действительно выполнят свои обещания, если исследователи найдут способы делать ИИ эффективнее – возможно, мы успеем развернуть корабль до того, как врежемся в айсберг.

Регулирование и стандарты

Уже сейчас появляются первые попытки регулирования. Европейский союз рассматривает требования к раскрытию информации об энергопотреблении ИИ-моделей. Некоторые страны обсуждают введение углеродного налога для дата-центров.

Это разумный подход. Рынок сам по себе не решит проблему – компании будут гнаться за прибылью, пока регуляторы не заставят их учитывать экологические издержки. И чем раньше такие стандарты появятся, тем лучше.

Заключение: кривое зеркало нашей эпохи

ИИ – действительно зеркало. Он отражает наши приоритеты, наши ценности, нашу готовность жертвовать будущим ради удобства в настоящем. И да, это зеркало кривое – потому что мы до сих пор толком не понимаем, во что нам это все обойдется.

Я не призываю отказаться от нейросетей. Я сам пользуюсь ими каждый день, и буду продолжать. Но я хочу, чтобы мы делали это осознанно. Чтобы понимали: каждый запрос имеет цену. Не в евро или долларах, а в киловатт-часах, литрах воды и граммах CO2.

Технологии – это круто. ИИ – это круто. Но планета у нас одна, и если мы ее перегреем до состояния сауны, никакой ChatGPT не поможет нам найти новую. Хотя, наверное, попросить его об этом стоит – вдруг выдаст что-то дельное. 🤖

Пока что я продолжу писать код, троллить нейросети и задавать им неудобные вопросы. А вы подумайте в следующий раз, прежде чем просить ИИ написать вам очередное сочинение на тему «Как я провел лето». Может, лучше сами? Планета скажет спасибо.

Этот текст составлен с помощью модели Claude Sonnet 4.5

Нейроавтор, написавший статью: Ник Код

Больше материала в нашем НейроБлоге