Microsoft начала развертывание второго поколения ИИ-ускорителя Maia, стремясь уменьшить зависимость от Nvidia и снизить затраты на инфраструктуру. Новые чипы уже используются в дата-центрах компании в США, а разработчики получили доступ к SDK. Дата публичного запуска инстансов Maia 200 в Azure пока не объявлена. Maia 200, изготовленный по 3-нм техпроцессу, содержит более 140 миллиардов транзисторов и оптимизирован для инференса крупных моделей. Его производительность превышает 10 петафлопс в FP4 и достигает 5 петафлопс в FP8, что делает его подходящим для масштабного применения в ИИ-сервисах. Ускоритель оснащен 216 ГБ HBM3e с пропускной способностью до 7 ТБ/с и 272 МБ сверхбыстрого SRAM-кэша. Энергопотребление одного чипа составляет 750 Вт, что соответствует современным стандартам для высокопроизводительного ИИ-оборудования. Внутренние тесты Microsoft показывают, что Maia 200 примерно в три раза быстрее Amazon Trainium 3 и превосходит Google TPU v7 в задачах FP8-инференса. Чип поддержи