Во время оглашения результатов второго квартала 2024 финансового года глава компании Micron рассказал, что все запасы памяти типа HBM3E на нынешний год уже распроданы. Также было сказано, что большинство контрактов на 2025 год тоже заключены. Micron первой представила память типа HBM3E (HBM3 Gen 2), за счёт чего спрос на её предложение особенно велик. Большая часть этой памяти применяется в ускорителях искусственного интеллекта производства Nvidia. В частности, она войдёт в состав карт Nvidia H200, которые работают с искусственным интеллектом и высокопроизводительными вычислениями. Только в этом году компания ждёт от памяти HBM дохода в несколько сотен миллионов долларов. Аналитики считают, что карты Nvidia A100 и H100 в прошлом году широко применялись технологическими компаниями для обучения их моделей искусственного интеллекта. Это же может случиться и с новой H200. Первые продукты Micron HBM3E являются стеками 8-Hi объёмом 24 ГБ с 1024-битным интерфейсом. Скорость передачи данных зд
Вся производимая Micron память HBM3E идёт в ускорители ИИ
26 марта 202426 мар 2024
139
1 мин