Найти тему

Microsoft раскрывает новые виртуальные машины для искусственного интеллекта на базе Nvidia: NC H100 v5 и ND H200 v5

С использованием ускорителя искусственного интеллекта Microsoft Azure Maia и процессора Microsoft Azure Cobalt компания стремится занять лидирующие позиции в соревновании по развитию искусственного интеллекта. Эти пользовательские решения, предназначенные для использования в облачной среде Azure, планируется развернуть к 2024 году.

Два новых пользовательских чипа для облачной инфраструктуры Azure Maia представляет собой чип-ускоритель искусственного интеллекта, специально разработанный для работы с облачным обучением и выводом данных для искусственного интеллекта, включая модели OpenAI, Bing, GitHub Copilot и ChatGPT. Однако, учитывая разнообразие потребностей, связанных с искусственным интеллектом, Azure Cobalt является облачным чипом на базе архитектуры Arm, который оптимизирован для увеличения производительности, энергоэффективности и экономичности при выполнении типовых рабочих задач.

Технические данные о обоих решениях остаются в основном недоступными или ограниченными с официальной точки зрения. Однако известно, что процессор Cobalt основан на архитектуре Arm Neoverse N2. Он включает в себя 128 ядер, а также обладает 12-канальным интерфейсом памяти, обеспечивающим улучшение производительности на 40 процентов по сравнению с его предшественником, который остается без упоминания.

Технология TSMC с техпроцессом 5 нм также используется в Maia. На изображении продукта также прослеживается применение технологии упаковки CoWoS, с четырьмя микросхемами HBM, расположенными по сторонам "графического чипа", который в данном случае скорее всего является ASIC. Пока Microsoft избегает проведения прямых сравнений.

Новая стойка для Maia @Microsoft
Новая стойка для Maia @Microsoft

Microsoft подчеркивает, что использование пользовательских решений позволяет более эффективно отвечать на запросы клиентов. Они стремятся обеспечить дополнительную ценность по сравнению с конкурентами, внедряя адаптированное программное обеспечение и оборудуя свои центры обработки данных новыми чипами, из которых первые уже находятся в эксплуатации.

Системы Microsoft также включают в себя AMD MI300X и Nvidia H100 / H200

AMD Instinct UBB 8xMI300X @AMD
AMD Instinct UBB 8xMI300X @AMD

Помимо собственных разработок, Microsoft активно углубляет партнерские отношения с поставщиками оборудования, с целью предоставления клиентам большего выбора в инфраструктуре. Например, в платформу Azure планируется интеграция ускоренных виртуальных машин (VM) AMD Instinct MI300X, среди прочего. Виртуальные машины ND MI300 предназначены для ускорения обработки рабочих нагрузок искусственного интеллекта при обучении моделей искусственного интеллекта на больших расстояниях, а также для генерации вывода. Официальный выпуск семейства AMD MI300 запланирован на 6 декабря.

Microsoft объясняет, что предварительный обзор новой серии виртуальных машин NC H100 v5, разработанных для использования с Nvidia H100, обещает улучшенную производительность, надежность и эффективность для обучения искусственного интеллекта среднего уровня, а также для генерации выводов с использованием искусственного интеллекта. Кроме того, Microsoft официально анонсирует свои намерения выпустить серию виртуальных машин ND H200 v5, которые будут оптимизированы для работы с искусственным интеллектом и будут использовать предстоящую новую платформу Nvidia H200.