Представьте, что запуск новой версии GPT – это как устроить грандиозную вечеринку в городе с узкими дорогами. Даже если у вас самый мощный суперкар (сама ИИ-модель), он встанет в пробке, если улицы (компьютерная память и связь между чипами) не готовы к такому потоку гостей (данных). В мире ИИ эта «пробка» – главный враг скорости и дешевизны ответов модели (инференса). Именно эту проблему решает новый чип от Microsoft – Maia 200. Microsoft не просто сделала новый процессор, а спроектировала целую экосистему для ИИ-вычислений. Вот что важно: а) Разогнали память: Добавили 216 ГБ сверхбыстрой памяти HBM3e, которая передает 7 терабайт данных в секунду – это как загрузить всю библиотеку Netflix за мгновение. б) Поставили «регулировщиков»: Создали специальные блоки для управления потоком данных (DMA-движки), чтобы информация подавалась к вычислительным ядрам без задержек. в) Построили «центральную площадь»: Добавили огромный кэш-накопитель прямо на чипе (272 МБ SRAM), где можно хранить самые
Maia 200: Как Microsoft «разгоняет» ИИ будущего
29 января29 янв
2 мин