Найти в Дзене

Maia 200: Как Microsoft «разгоняет» ИИ будущего

Представьте, что запуск новой версии GPT – это как устроить грандиозную вечеринку в городе с узкими дорогами. Даже если у вас самый мощный суперкар (сама ИИ-модель), он встанет в пробке, если улицы (компьютерная память и связь между чипами) не готовы к такому потоку гостей (данных). В мире ИИ эта «пробка» – главный враг скорости и дешевизны ответов модели (инференса). Именно эту проблему решает новый чип от Microsoft – Maia 200. Microsoft не просто сделала новый процессор, а спроектировала целую экосистему для ИИ-вычислений. Вот что важно: а) Разогнали память: Добавили 216 ГБ сверхбыстрой памяти HBM3e, которая передает 7 терабайт данных в секунду – это как загрузить всю библиотеку Netflix за мгновение. б) Поставили «регулировщиков»: Создали специальные блоки для управления потоком данных (DMA-движки), чтобы информация подавалась к вычислительным ядрам без задержек. в) Построили «центральную площадь»: Добавили огромный кэш-накопитель прямо на чипе (272 МБ SRAM), где можно хранить самые
Оглавление

Представьте, что запуск новой версии GPT – это как устроить грандиозную вечеринку в городе с узкими дорогами. Даже если у вас самый мощный суперкар (сама ИИ-модель), он встанет в пробке, если улицы (компьютерная память и связь между чипами) не готовы к такому потоку гостей (данных). В мире ИИ эта «пробка» – главный враг скорости и дешевизны ответов модели (инференса). Именно эту проблему решает новый чип от Microsoft – Maia 200.

Microsoft не просто сделала новый процессор, а спроектировала целую экосистему для ИИ-вычислений. Вот что важно:

  • Чип-тяжеловес: Maia 200 создан по сверхтонкому 3-нм техпроцессу TSMC и содержит более 140 миллиардов транзисторов (для сравнения, в процессоре вашего компьютера их около 10-15 миллиардов). Это позволяет ему выдавать более 10 квинтиллионов операций в секунду (петафлопс), что делает его мощнее аналогов от Amazon и Google. Потребляет при этом 750 Вт – как мощный игровой ПК.
  • Война с «пробками»: Главная инновация – не просто в мощности, а в архитектуре. Вместо того чтобы наращивать «мышцы» (вычисления), Microsoft проложила «скоростные магистрали» для данных. Для этого они:

а) Разогнали память: Добавили 216 ГБ сверхбыстрой памяти HBM3e, которая передает 7 терабайт данных в секунду – это как загрузить всю библиотеку Netflix за мгновение.

б) Поставили «регулировщиков»: Создали специальные блоки для управления потоком данных (DMA-движки), чтобы информация подавалась к вычислительным ядрам без задержек.

в) Построили «центральную площадь»: Добавили огромный кэш-накопитель прямо на чипе (272 МБ SRAM), где можно хранить самые нужные данные прямо под рукой у процессора.

  • Масштабирование до небес: Один чип – это хорошо, но для гигантских ИИ нужны тысячи. Maia 200 умеет работать в кластерах до 6144 штук благодаря двухуровневой сети на основе обычного Ethernet (а не проприетарных решений). Это упрощает программирование и делает систему гибкой. Представьте, как тысячи этих чипов работают как один слаженный мозг.
  • Облачная философия: Microsoft разрабатывала Maia 200 не как отдельную деталь, а как часть Azure. Чип, софт, система охлаждения и даже дата-центр проектировались вместе. Это как строить гоночный болид, аэродром и команду пилотов одновременно. Благодаря этому они в два раза быстрее внедрили чип в работу после производства и сразу получили прирост эффективности на 30% по стоимости и энергопотреблению.

Для кого и зачем

Чип уже работает в облаке Azure и будет питать новые модели, вроде GPT-5.2, а также сервисы Microsoft 365 Copilot. Внутри Microsoftего будут использовать для создания синтетических данных и обучения моделей.

Итог

Microsoft с Maia 200 сделала ставку не на «самый сильный мотор», а на самый продуманный и целостный гоночный комплекс. Это шаг к тому, чтобы мощный ИИ стал быстрее и доступнее для всех.

Ссылка на первоисточник: https://www.embedded.com/microsoft-unveils-maia-200-ai-accelerator

Вас также может заинтересовать:

Эпоха экосистем: как производители микросхем заманивают нас в свои «райские сады»
MIR - Студия разработки умных устройств (Embedded NN Lab)19 декабря 2025