Создание искусственных интеллектов следующих поколений, еще более масштабных, сложных и точных, столкнулось с неожиданным препятствием: их работа требует так много электричества, что существующие мощности могут просто не справиться с генерацией. Чем крупнее, тем «умнее» становятся нейросети. При обучении они перерабатывают огромные массивы данных, настраивая миллиарды, а то и триллионы своих внутренних переменных. Чем больше у модели таких параметров, тем проще ей находить закономерности и связи. Вышедшая в 2018 году GPT-1 использовала 117 млн переменных, GPT-2 — около 1,5 млрд, а в GPT-4, по некоторым данным, их более 1,7 трлн. Однако по мере увеличения размеров нейросети оказываются все более «прожорливыми»: если обучение GPT-2 обошлось компании OpenAI всего в 50 тысяч долларов, то на GPT-4 пришлось потратить уже более 100 млн. Ведущие разработчики ИИ активно инвестируют в энергетическую инфраструктуру для собственных нужд. Google и Amazon Web Services запустили проекты по строительс
Ненасытный интеллект: сколько электроэнергии потребляют нейросети
3 ноября 20253 ноя 2025
23
3 мин