Компания Micron начинает промышленное производство памяти HBM3e, массовое распространение которой продвигают компании вроде Nvidia в своих устройствах для обработки приложений искусственного интеллекта. В частности, эта память войдёт в состав видеокарт Nvidia H200 AI. Здесь будет использоваться 24 ГБ 8H HBM3E.
Поставки этих карт ожидается во втором квартале года. Производитель обещает скорость вывода свыше 9,2 Гбит/с и пропускную способность более 1,2 ТБ/с. Это даст мгновенный доступ к данным ускорителям искусственного интеллекта, суперкомпьютером и дата-центрам.
Память HBM3E от Micron должна потреблять на 30% меньше энергии по сравнению с конкурирующими предложениями. Это позволит сократить расходы на эксплуатацию центров обработки данных.
Micron применяет конструкцию HBM3E, 1-бета-технологию, усовершенствованный сквозной полупроводниковый переход (TSV) и другие инновации. В марте компания собирается представить образец памяти 12-High HBM3E на 36 ГБ с производительностью свыше 1,2 ТБ/с и высоким уровнем энергоэффективности.
18 марта стартует глобальная конференция по искусственному интеллекту, где можно будет узнать новые подробности о предложениях в сфере искусственного интеллекта и аппаратном обеспечении, на котором он работает.