38,7K подписчиков

SK hynix представила новый тип памяти – 12-слойные стеки HBM3E

Компания SK hynix из Южной Кореи продолжает пополнять линейку микросхем памяти HBM, используемых преимущественно для искусственного интеллекта (ИИ). Это многослойные электронные компоненты памяти с большим объёмом хранения данных и молниеносной скоростью их передачи. Новая микросхема, пятой модели HBM3E, состоит из 12 стеков и может хранить 36 ГБ оперативной информации. Скорость интерфейса достигает отметки 1,18 ТБ/с. Это, примерно, 2 фильма Full HD формата, общим объёмом чуть больше 11 Гб, считываются быстрее, чем за одну сотую часть секунды.

Линейка микросхем памяти HBM.
Линейка микросхем памяти HBM.

Свойства HBM3E

DRAM микросхемы 5-го поколения HBM3E производятся техпроцессом в 10нм. К тому же используется передовая технология Advanced Mass Reflow Molded Underfill. Это когда несколько чипов спаивается в один. Примерно как микросхемы с матричными выводами монтируются одна на одну. Только вот количество выводов у каждого кристалла может быть около 60 тысяч.

Плотность соединений у новой памяти оптимизирована так, что достигнут высокоэффективный теплоотвод с любого участка, а ёмкостные паразитные связи минимизированы. Именно над этим ученым пришлось поработать больше всего. В последней модели микросхем, по сравнению с предыдущей версией этой линейки, размеры уменьшены на 40%.

В итоге: габариты стали даже меньше, чем у стеков HBM3. Имея 36 Гб памяти, они по размеру лишь чуть больше 16-гигабайтовой версии.

Микросхема памяти HBM3E.
Микросхема памяти HBM3E.

Вопрос о совместимости HBM3E с предыдущими моделями линейки, вообще-то, решён. Разработчики уверяют, что новые микросхемы могут легко согласовываться с HBM3. Но, в этом случае скорость останется на уровне 4-го поколения. Для того, чтобы система работала по новым, улучшенным параметрам, необходим переход всех компонентов устройства на стандарт нового поколения.

Впрочем, теплоотвод нижних слоёв новых микросхем много лучше, да и греются они меньше. Так что преимущество уже есть, даже если новая модель будет работать в паре со старой.

Где будут применяться HBM3E?

Южнокорейские разработчики утверждают, что они старались для набирающего обороты искусственного интеллекта. Но компания Nvidia, скорее всего, видит их в своих видеокартах, а AMD в оперативках DDR. Понятно, что и производители серверов тоже захотят в своём арсенале иметь быстро думающие аппараты. Кто и где их будет применять — покажет время.