Любые вычисления требуют затрат энергии, но особенно это верно для тех, что связаны с задачами машинного обучения и искусственного интеллекта. С математической точки зрения задачи эти не слишком сложны и сводятся – в том числе для особенно популярного в наши дни генеративного ИИ – просто к умножению вектора на матрицу, не более. Однако размерности этих вектора и матрицы таковы, что модели, выполняющие такое умножение, нуждаются в сотнях и тысячах физических процессорных ядер (пусть и маломощных), перемещающих гигабайты данных между разными отделами высокоскоростной оперативной памяти. Формально все это можно реализовать и на крайне скромном «железе», с непрерывной подкачкой данных из постоянной памяти, но тогда скорость обработки – тех же запросов к ChatGPT, Midjourney, Kling и пр. – окажется слишком низка: чтобы ИИ взаимодействовал с человеком в реальном масштабе времени, необходимы высокомощные графические и/или нейроадаптеры. А эти аппаратные средства, в свою очередь, потребляют чр