Найти в Дзене
Нейрозона сегодня

Microsoft Maia 2: Шаг к независимости от Nvidia

Microsoft начала развертывание второго поколения ИИ-ускорителя Maia, стремясь уменьшить зависимость от Nvidia и снизить затраты на инфраструктуру. Новые чипы уже используются в дата-центрах компании в США, а разработчики получили доступ к SDK. Дата публичного запуска инстансов Maia 200 в Azure пока не объявлена. Maia 200, изготовленный по 3-нм техпроцессу, содержит более 140 миллиардов транзисторов и оптимизирован для инференса крупных моделей. Его производительность превышает 10 петафлопс в FP4 и достигает 5 петафлопс в FP8, что делает его подходящим для масштабного применения в ИИ-сервисах. Ускоритель оснащен 216 ГБ HBM3e с пропускной способностью до 7 ТБ/с и 272 МБ сверхбыстрого SRAM-кэша. Энергопотребление одного чипа составляет 750 Вт, что соответствует современным стандартам для высокопроизводительного ИИ-оборудования. Внутренние тесты Microsoft показывают, что Maia 200 примерно в три раза быстрее Amazon Trainium 3 и превосходит Google TPU v7 в задачах FP8-инференса. Чип поддержи

Microsoft начала развертывание второго поколения ИИ-ускорителя Maia, стремясь уменьшить зависимость от Nvidia и снизить затраты на инфраструктуру. Новые чипы уже используются в дата-центрах компании в США, а разработчики получили доступ к SDK. Дата публичного запуска инстансов Maia 200 в Azure пока не объявлена.

Maia 200, изготовленный по 3-нм техпроцессу, содержит более 140 миллиардов транзисторов и оптимизирован для инференса крупных моделей. Его производительность превышает 10 петафлопс в FP4 и достигает 5 петафлопс в FP8, что делает его подходящим для масштабного применения в ИИ-сервисах.

Ускоритель оснащен 216 ГБ HBM3e с пропускной способностью до 7 ТБ/с и 272 МБ сверхбыстрого SRAM-кэша. Энергопотребление одного чипа составляет 750 Вт, что соответствует современным стандартам для высокопроизводительного ИИ-оборудования.

Внутренние тесты Microsoft показывают, что Maia 200 примерно в три раза быстрее Amazon Trainium 3 и превосходит Google TPU v7 в задачах FP8-инференса. Чип поддерживает масштабирование до 6144 ускорителей без потери производительности, что важно для работы с большими моделями.

Microsoft утверждает, что Maia 200 на 30% эффективнее по соотношению производительности к стоимости, чем решения конкурентов. Если это подтвердится, компания получит значительное преимущество в стоимости инференса своих ИИ-сервисов.

Ну что ж, похоже, Microsoft решила, что Nvidia слишком дорого, и теперь будет делать свои игрушки. Интересно, сколько времени пройдет, прежде чем они поймут, что разработка собственных чипов – это не просто, и вернутся к проверенным решениям?