Найти в Дзене
4pda.to

Мощные ИИ-модели повышают объём выбросов CO2. Но есть нюанс

Исследователи Мюнхенского университета составили рейтинг чат-ботов по их влиянию на окружающую среду. Выяснилось, что сложные вычисления затрачивают больше ресурсов, тем самым усиливая выбросы углекислого газа. Впрочем, оптимизировать процесс нетрудно — достаточно подбирать нейронку под стать каждой задаче. Сейчас генеративные сервисы стали частью повседневной жизни многих, и это уже отражается на потреблении электричества. По данным Министерства энергетики США, к 2028 году доля дата-центров от всех энергозатрат в стране вырастет с 4,4 до 12 процентов — всё из-за развития ИИ. Чтобы удовлетворить спрос, электростанции будут сжигать больше угля и природного газа. Расход питания зависит от конкретной языковой модели и разработчика. Как правило, вместе с размером LLM растут и издержки. Так, по средним оценкам, самой прожорливой оказалась DeepSeek R1, задействующая механизм длительных размышлений в своих ответах. Эта функция, ставшая популярной для сложных сценариев, требует куда больше сыр
Оглавление
   Мощные ИИ-модели повышают объём выбросов CO2. Но есть нюанс
Мощные ИИ-модели повышают объём выбросов CO2. Но есть нюанс

Исследователи Мюнхенского университета составили рейтинг чат-ботов по их влиянию на окружающую среду. Выяснилось, что сложные вычисления затрачивают больше ресурсов, тем самым усиливая выбросы углекислого газа. Впрочем, оптимизировать процесс нетрудно — достаточно подбирать нейронку под стать каждой задаче.

-2

Насколько заметен эффект ИИ?

Сейчас генеративные сервисы стали частью повседневной жизни многих, и это уже отражается на потреблении электричества. По данным Министерства энергетики США, к 2028 году доля дата-центров от всех энергозатрат в стране вырастет с 4,4 до 12 процентов — всё из-за развития ИИ. Чтобы удовлетворить спрос, электростанции будут сжигать больше угля и природного газа. Расход питания зависит от конкретной языковой модели и разработчика.

Как правило, вместе с размером LLM растут и издержки. Так, по средним оценкам, самой прожорливой оказалась DeepSeek R1, задействующая механизм длительных размышлений в своих ответах. Эта функция, ставшая популярной для сложных сценариев, требует куда больше сырья для выполнения, чем мгновенная выдача. Предмет вопроса не особо важен — чем длиннее формируемый текст, тем затратнее вычисления. Увы, в исследовании оценивали только модели с открытым кодом, к которым не относятся Google Gemini и СhatGPT (GPT-4o, o3 и так далее).

-3

Оптимальный выбор — ключ

В ходе тестирования заметили, что «ризонинг», несмотря на серьёзный расход энергии, не всегда даёт ожидаемый прирост по качеству ответов. Всё потому, что думать дольше имеет смысл только в более трудных задачах, касающихся математики, программирования либо обширных отчётов. «Для простых вопросов не всегда нужна самая продвинутая модель. Малые варианты тоже неплохо справляются с определёнными запросами. Словом, подбирайте ИИ под свой уровень задач», — считает Максимилиан Даунер, ведущий автор статьи.