Найти в Дзене

ИИ учится экономить электричество. Нейросети нового поколения тратят на 38% меньше ватт за ответ ⚡🤖

Долгое время гонка в ИИ измерялась в «кто умнее». Теперь появляется новая метрика: ватт-часы на запрос (Wh/query). По данным аналитиков TRG Datacenters, ведущие модели 2026 года демонстрируют резкое снижение энергопотребления по сравнению с предыдущими версиями: Grok 4.1 стал легче на 38% (0.34 Wh), Gemini 3 — на 35% (0.24 Wh), Claude Opus 4.5 — на 27% (0.29 Wh). Это не просто забота об экологии, а экономическая необходимость: дата-центры уже потребляют около 4.4% электроэнергии США, и этот спрос растёт взрывными темпами. В чём фокус?
Раньше считалось, что один запрос к ChatGPT требует около 2.9 Wh — в 10 раз больше, чем поиск в Google (0.3 Wh). Но инженерные улучшения (оптимизация архитектуры, квантование, лучшее распределение нагрузки, аппаратные ускорители) позволили резко сократить эти цифры. Важно понимать: 0.24 Wh на запрос у Gemini 3 — это не абсолютная истина для всех случаев, а оценка при типовой нагрузке. Но тренд очевиден: новые модели учатся делать то же самое, но есть мень

Сгенерировано ИИ
Сгенерировано ИИ

Долгое время гонка в ИИ измерялась в «кто умнее». Теперь появляется новая метрика: ватт-часы на запрос (Wh/query). По данным аналитиков TRG Datacenters, ведущие модели 2026 года демонстрируют резкое снижение энергопотребления по сравнению с предыдущими версиями: Grok 4.1 стал легче на 38% (0.34 Wh), Gemini 3 — на 35% (0.24 Wh), Claude Opus 4.5 — на 27% (0.29 Wh). Это не просто забота об экологии, а экономическая необходимость: дата-центры уже потребляют около 4.4% электроэнергии США, и этот спрос растёт взрывными темпами.

В чём фокус?
Раньше считалось, что один запрос к ChatGPT требует около
2.9 Wh — в 10 раз больше, чем поиск в Google (0.3 Wh). Но инженерные улучшения (оптимизация архитектуры, квантование, лучшее распределение нагрузки, аппаратные ускорители) позволили резко сократить эти цифры.

Важно понимать: 0.24 Wh на запрос у Gemini 3 — это не абсолютная истина для всех случаев, а оценка при типовой нагрузке. Но тренд очевиден: новые модели учатся делать то же самое, но есть меньше энергии.

Почему это критично?

  • Масштаб: Если у модели миллиарды запросов в день (как у GPT-5.2 с его 2.5 млрд), то даже десятые доли ватта превращаются в мегаватты перегрева и счета за электричество.
  • Инфраструктура: Сети и охлаждение дата-центров имеют физические пределы. Энергоэффективность становится таким же конкурентным преимуществом, как качество ответов.
  • Цена для пользователя: Чем меньше энергии тратит модель, тем ниже себестоимость одного ответа. В конечном счёте это может отразиться на ценах API и подписок.

#УКУС_ТРЕНДА
Эта гонка за ваттами — симптом трёх важных процессов:

  1. Зрелость индустрии: Когда рынок переполнен «умными» моделями, борьба идёт за экономику. Кто сможет дать тот же сервис дешевле (и зелёнее), тот и выиграет.
  2. Физика бьёт по софту: Бесконечно наращивать вычислительные мощности нельзя — упираемся в тепло и электричество. Дальнейший прогресс ИИ будет зависеть не от новых алгоритмов, а от энергоэффективности железа и кода.
  3. Новая метрика прозрачности: Скоро в спецификациях моделей рядом с «количеством параметров» появится «потребление на запрос». Это будет такой же важной характеристикой, как «литров на 100 км» для автомобиля.

P.S. Важно не абсолютизировать цифры из отчётов. 0.24 Wh у Gemini 3 — это, скорее всего, результат тестов в идеальных условиях с большим батчингом. Но сам факт, что лидеры гонки (OpenAI, Google, xAI, Anthropic) соревнуются не только в баллах за задачи, но и в ваттах, говорит о многом. ИИ взрослеет и учится считать деньги.

#ИИ #энергетика #эффективность #технологии #будущее