Найти тему

В одном из постов рассказывал вам про проблему недостатка GPU, а если проще - вычислительных мощностей для обучения ИИ, за которые сегодня борются все техногиганты мира 🦾 Но из этой технологической проблемы выходит еще одна, более серьезная, на мой взгляд - экологическая. Ведь вычислительные мощности, за счет которых работают нейросети, требуют огромное количество природных и энергетических ресурсов 🏭


Наткнулся на интересную статистику по тому, сколько ресурсов потребляют нейросети:

🍃До 134 тераватт-часов в год будет потреблять к 2027 году сектор ИИ. Это в 3 раза больше потребления электроэнергии Москвы в год.

🍃В 10 раз больше электроэнергии уходит на обработку одного запроса для ChatGPT, чем на стандартный запрос в Гугл.

🍃564 тысячи киловатт-часов в день потребляет на пике ChatGPT - это сопоставимо с энергопотреблением почти 27 тысяч жителей России.

🍃0,5 литра воды в день расходуется при обработке от 10 до 50 запросов ChatGPT.

Какой выход? Один из самых очевидных - оптимизировать LLM, то есть пытаться уменьшать размер модели без значительной потери качества.

А вообще очень развернуто представлена экологическая проблема LLM и ее решения в этой статье!
———
Затестить мощный ИИ прямо сейчас можете в LeoGPT
В одном из постов рассказывал вам про проблему недостатка GPU, а если проще - вычислительных мощностей для обучения ИИ, за которые сегодня борются все техногиганты мира 🦾 Но из этой технологической
1 минута