Найти тему
OVERCLOCKERS.RU

Вся производимая Micron память HBM3E идёт в ускорители ИИ

Во время оглашения результатов второго квартала 2024 финансового года глава компании Micron рассказал, что все запасы памяти типа HBM3E на нынешний год уже распроданы. Также было сказано, что большинство контрактов на 2025 год тоже заключены.

Micron первой представила память типа HBM3E (HBM3 Gen 2), за счёт чего спрос на её предложение особенно велик. Большая часть этой памяти применяется в ускорителях искусственного интеллекта производства Nvidia. В частности, она войдёт в состав карт Nvidia H200, которые работают с искусственным интеллектом и высокопроизводительными вычислениями. Только в этом году компания ждёт от памяти HBM дохода в несколько сотен миллионов долларов.

Аналитики считают, что карты Nvidia A100 и H100 в прошлом году широко применялись технологическими компаниями для обучения их моделей искусственного интеллекта. Это же может случиться и с новой H200.

Первые продукты Micron HBM3E являются стеками 8-Hi объёмом 24 ГБ с 1024-битным интерфейсом. Скорость передачи данных здесь составляет 9,2 ГТ/с при пиковый пропускной способности 1,2 ТБ/с. H200 задействует шесть подобных стеков в составе одного модуля, давая 141 ГБ памяти с высокой пропускной способностью.

Ещё Micron начинает готовить образцы памяти 12-Hi HBM3E, объём которой может вырасти в полтора раза, до 36 ГБ. Это позволит производителям вроде Nvidia задействовать больше памяти с графическими процессорами. Micron собирается наращивать производство 12-слойных стеков HBM3E в следующем году. В дальнейшем она увеличит скорость и объём с выходом памяти HBM4.

-2

Также компания готовит серверную память DIMM большого объёма. В частности, завершено тестирование первого серверного модуля DRAM ёмкостью 128 ГБ. Энергоэффективность у него должна быть выше прежнего на 20%, а задержка сократится на 15%, если сравнивать с конкурирующими продуктами на основе 3D TSV.