Alibaba, по всей видимости, разработала новую систему, которая на 82% сокращает количество графических процессоров Nvidia, необходимых для запуска больших языковых моделей (LLM). Результаты, представленные на симпозиуме ACM по операционным системам (SOSP) 2025 в Сеуле, свидетельствуют о том, что поставщики облачных услуг могут получить значительно больше пользы от существующих чипов. Это решение особенно интересно для рынков с ограниченной доступностью, таких как Китай, где есть проблемы с поставками чипов Nvidia. Новая система прошла бета-тестирование, длившееся несколько месяцев. Поскольку чип Nvidia H20 позволяет одновременно обслуживать несколько различных моделей, так называемая «полезная пропускная способность» (показатель эффективной производительности) увеличивается в девять раз по сравнению со старыми бессерверными системами. В течение тестового периода количество графических процессоров, необходимых для поддержки десятков различных LLM с 72 миллиардами параметров, сократилось
Alibaba разработала систему для значительного уменьшения использования графических процессоров в ИИ
22 октября 202522 окт 2025
5
2 мин