Классические ускорители вычислений требуют постоянной перегонки огромных массивов данных между GPU и VRAM, выполненными в виде отдельных компонентов. Кроме роста энергопотребления это приводит к уменьшению скорости расчетов.
В тоже время существуют способы снизить энергозатраты, модернизировав устоявшуюся конструкцию. Так, подразделение IBM Research недавно опубликовало документ, согласно которому "голубой гигант" планирует выпустить ИИ-чип, требующий для своей работы гораздо меньшее количество ватт. Достигается подобное за счет совмещения в процессоре аппаратно-реализованных алгоритмов с ПЗУ. В таком виде его функционирование напоминает человеческий мозг.
В последнее время проблема высокого энергопотребления в серверного сегменте встала особенно остро. Для питания стоек с GPU требуется в десятки раз больше мощности, чем для стандартных. Ожидается, что прорыв IBM в этом направлении не только снизит общие энергозатраты в индустрии, но и приведет к снижению использования в ней GPU-ориентированных решений, заставив некоторых участников рынка вернуться к своему основному роду деятельности.