В прошлом месяце генеральный директор Open AI Сэм Альтман посетил конференцию Всемирного экономического форума. Такое событие не должно было бы быть заметным, однако Сэм проговорился о одной из самых больших тайн ИИ. Во время одной из многих встреч он предупредил, что следующее поколение систем ИИ будет потреблять гораздо больше энергии, чем ожидалось, и наши текущие энергетические системы не справятся с этим. Он даже заявил: «Достичь этого [ИИ следующего поколения] без прорыва невозможно». Это стало значимым поворотным моментом в хайпе вокруг ИИ, поскольку до сих пор их энергопотребление и связанные с этим выбросы углерода оставались незамеченными. Одним этим заявлением Альтман вывел эту тему на передний план, и теперь все обсуждают её. Так что же, действительно ли потребление энергии является проблемой? Каково его воздействие? Есть ли у Альтмана решение? И можно ли сделать ИИ более энергоэффективным?
Начнем с основ. ИИ использует энергию двумя очень разными способами: обучение и вывод. Обучение происходит, когда вы загружаете в ИИ библейское количество данных и обучаете его распознавать определенные закономерности и работать с ними. Вывод — это когда вы используете обученный ИИ для получения результата.
Из двух, обучение гораздо более энергоемко. Например, оценивается, что Open AI использовала 1300 МВт·ч энергии для обучения своего ИИ GPT-3, который был довольно бесполезным текстовым генеративным ИИ. Это достаточно энергии, чтобы обеспечить средний дом в США энергией на 130 лет, а дома в США известны своей низкой энергоэффективностью! Но обновленный и гораздо более способный ChatGPT-4, вероятно, потребовал гораздо больше энергии для обучения. GPT-3 использовал для обучения всего 17 гигабайт сырых текстовых данных, в то время как GPT-4 использовал 45 гигабайт, то есть в 2,6 раза больше! Следовательно, для его обучения потребовалось бы гораздо более чем в 2,6 раза больше энергии, поскольку ИИ должен был не только обработать в 2,6 раза больше данных, но и рассчитать, как все эти дополнительные данные связаны друг с другом, найти больше закономерностей в данных и составить более сложные «уроки». Таким образом, энергопотребление при обучении ИИ экспоненциально увеличивается с увеличением объема обучающих данных.
Это усугубляется тем фактом, что мы достигаем точки убывающей отдачи с ИИ. Еще несколько лет назад удвоение объема данных для обучения ИИ резко увеличивало его производительность после внедрения. Теперь, чтобы добиться того же увеличения производительности, вы смотрите на обучение ИИ на 10, 100 или 1000 раз больше данных. Это не было бы проблемой, если бы наши текущие ИИ были достаточно хороши, но это не так. Генеративный ИИ может производить полезную работу, но далек от надежности или бесшовности. Системы ИИ также крайне ненадежны и непредсказуемы; их даже нельзя доверять управление автомобилем. В основном, нашим ИИ необходимо сделать огромный скачок вперед, что означает, что им нужно колоссальное количество обучающих данных и разрушительное для планеты количество энергии для обучения.
Но даже после этого ИИ все еще не энергоэффективны, поскольку вывод также имеет значительный энергетический след. Оценивается, что поиск, управляемый генеративным ИИ, относительно простая задача для такого ИИ, использует в четыре-пять раз больше энергии, чем обычный веб-поиск. Запуск ChatGPT-4 также потребляет столько же энергии, сколько 33 000 домов! GPT OpenAI далеко не исключение; каждая крупная компания ИИ, такая как Tesla, Facebook, Microsoft и Google, сталкивается с теми же проблемами потребления энергии, которые только усугубятся в ближайшие годы по мере нагревания отрасли.
Один исследователь попытался предсказать этот рост и обнаружил, что к 2027 году глобальная индустрия ИИ будет потреблять от 85 до 134 тераватт-часов в год. Или примерно столько же, сколько использует Нидерланды за год. Но помните, на этом дело не остановится, и оно будет только расширяться экспоненциально.
Это не было бы проблемой, если бы наша энергия уже была углеродно-нейтральной. Поскольку это не так, к 2027 году сектор ИИ готовится выбросить 169,1 миллиона метрических тонн углекислого газа в год. Он также увеличит глобальный энергетический спрос (в настоящее время 25 000 тераватт-часов) на 0,5%, что может показаться незначительным, но это важно! Таким образом, это увеличение спроса затруднит усилия по замене источников энергии, выбрасывающих углерод, на возобновляемые. Опять же, помните, это только к 2027 году, а этот энергетический спрос будет расти гораздо выше этой отметки.
Решение Сэма Альтмана? Термоядерный синтез! Альтман инвестировал в Helion, которая обещает в ближайшем будущем освоить синтез. Альтман верит, что этот новый деструктивный источник ультрачистой энергии обеспечит ИИ обильными количествами чистой энергии и поддержит эту экстракцию. Однако, как скажет вам любой ядерный ученый, до ядерного синтезного энергоблока еще десятилетия. Так что предложенный план Альтмана больше похож на PR его инвестиций…
Некоторые утверждают, что этот рост энергопотребления неправильно интерпретирован, и что ИИ на самом деле более энергоэффективен, чем если бы эти задачи выполняли люди. Например, недавнее исследование показало, что генеративные системы ИИ, такие как ChatGPT-4, BLOOM, DALL-E2 и Midjourney, производили на 130-1500 раз меньше CO2 на страницу сгенерированного текста и на 310-2900 раз меньше CO2 на изображение, чем их человеческие аналоги. К сожалению, это исследование не учитывало социальные последствия, такие как профессиональное вытеснение, законность или отскок эффектов для людей, и странно классифицировало человеческие выбросы. Так что это сравнение не совсем корректное. Также не учитывается, что эти системы далеки от совершенства и часто требуют человеческого вмешательства для проверки и улучшения, или что эти модели скоро будут производить гораздо больше CO2, поскольку они улучшаются в течение ближайших лет.
Есть ли решения?
Да, есть! Эти ИИ используют хорошо установленную технологию, известную как нейронная сеть. Однако существуют менее известные, но более эффективные альтернативы, такие как спайковые нейронные сети и обучение на протяжении жизни, которые не требуют такого большого объема обучающих данных и обучаются более эффективно. Если бы отрасль перешла к разработке этих технологий, чтобы они были так же хороши, как нейронные сети, это могло бы значительно сократить энергопотребление, выбросы и даже проблемы с данными в индустрии ИИ. Например, чат-бот AI модель BLOOM 3 использует эти технологии и так же способен, как ChatGPT-3, но имеет гораздо меньший спрос на энергию и углеродный след.
Важно отметить, что эти более эффективные альтернативные архитектуры ИИ также могут быть ключом к разблокированию действительно интеллектуального ИИ. Как я уже говорил, наш текущий ИИ сталкивается с проблемой убывающей отдачи, поэтому создание интеллектуального общего ИИ с их помощью может быть невозможным. С другой стороны, эти более эффективные системы не имеют такой же проблемы и могут преодолеть эту преграду. Так что для осуществления революции ИИ, не повреждая планету или перегружая уже напряженные энергетические сети, компаниям, разрабатывающим ИИ, нужно прекратить разработку больших моделей ИИ и вместо этого сосредоточиться на эффективности. По крайней мере, это более плодотворный путь вперед, чем ставка отрасли на почти нереальные зеленые энергетические решения.