HBM - High Bandwidth Memory - память с высокой пропускной способностью
Это -
Высокопроизводительный интерфейс ОЗУ для DRAM с многослойной компоновкой кристаллов в микросборке от компаний AMD и Hynix, применяемая в высокопроизводительных видеокартах и сетевых устройствах; основной конкурент технологии Hybrid Memory Cube от Micron. AMD Fiji и AMD Arctic Islands являются первыми видеопроцессорами, использующими НВМ.
HBM была стандартизирована JEDEC в октябре 2013 года как JESD235, HBM2 стандартизована в январе 2016 года под кодом JESD235a. На середину 2016 года сообщалось о работах над HBM3 и более дешёвым вариантом HBM.
К слову...
Компания AMD, как и компания ATI в годы своей жизни, в последние несколько лет была лидером по освоению новых типов графической памяти. Хотя продукты с поддержкой GDDR2 и GDDR3 первыми выпустили не они, но именно эта компания первой оснастила свои решения видеопамятью последних двух существующих стандартов (GDDR4 и GDDR5). А новейший GDDR6 использовала первым Nvidia.
Мини история о разработке HBM
AMD начала разработку HBM в 2008 году чтобы решить проблему постоянно растущего энергопотребления и уменьшения форм-фактора памяти. Среди прочего, группой сотрудников AMD во главе с Брайаном Блэком разработана технологии упаковки интегральных схем в стек. Партнеры: SK Hynix, UMC, Amkor Technology и ASE были также вовлечены в разработку. Массовое производство началось на заводах Hynix в Ичхоне в 2015 году.
Кратко о технологии
HBM обеспечивает более высокую пропускную способность при меньшем расходе энергии и существенно меньших размерах по сравнению с DDR4 или GDDR5. Это достигается путём объединения в стек до восьми интегральных схем DRAM (включая опциональную базовую схему с контроллером памяти), которые соединены между собой с помощью сквозных кремниевых межсоединений и микроконтактных выводов.
Шина НВМ-памяти обладает существенно большей шириной по сравнению с памятью DRAM, в частности, НВМ-стек из четырёх кристаллов DRAM (4-Hi) имеет два 128-битных канала на кристалл — в общей сложности 8 каналов и ширину в 1024 бита, а чип с четырьмя 4-Hi-НВМ-стеками будет иметь ширину канала памяти в 4096 бита (притом ширина шины GDDR-памяти — 64 бита на один канал)
Видеокарта, которая использует HBM в разрезе. Сверху: видеопроцессор и многокристальные микросборки памяти HBM расположены на общем кремниевом пассивном кристалле «silicon interposer», который реализует электрическую связь процессора и памяти. Interposer через Package Substrate припаян к печатной плате графического ускорителя (внизу).
Разжуем подробнее.
Разработка специального слоя, который способен вместить соединения большой плотности — кремниевой подложки (interposer). Этот слой похож на обычный кремниевый кристалл, в котором вместо некоей внутренней логики размещены исключительно металлические слои для передачи сигналов и питания между различными компонентами — этакий переходник. При производстве interposer используются возможности современных литографических процессов, позволяющих разместить очень тонкие проводники, которые практически невозможно вместить на традиционных печатных платах.
Использование такого слоя-переходника решает часть фундаментальных проблем по размещению широкой шины памяти, а также дает и другие преимущества. Так, вместе с решением проблемы маршрутизации проводников, эта кремниевая подложка позволяет разместить чипы памяти очень близко к GPU, но не прямо на кристалле, как применяется в случаях мобильных систем-на-чипе, например. Ведь подобное решение (package on package, или PoP) попросту невозможно для выделяющих значительное количество тепла графических процессоров.
А если поместить микросхемы памяти близко к графическому чипу, то и длинных соединений между ними не требуется, что упрощает конструкцию и предъявляет менее жесткие требования по питанию. Помещение чипов памяти вместе с основной логикой также выигрывает в повышении степени интеграции — большее количество функциональной логики можно собрать в одной упаковке, что уменьшает количество необходимой внешней обвязки. А достижение высокой степени интеграции — давний тренд в индустрии. Все постепенно интегрировалось в кристаллы: сначала кэш-память и FPU, затем чипсетная логика и графические ядра, а теперь вот и память перебирается поближе к вычислительным ядрам.
Рассматривая весь «бутерброд» в разрезе, можно увидеть, что interposer становится новым слоем между традиционной упаковкой и чипами DRAM с дополнительной управляющей логикой, смонтированными прямо на interposer'е. Для связи чипов памяти и логики с interposer'ом используются специальные соединения типа microbump и TSV (through-silicon vias), далее interposer соединяется с основным кристаллом, а тот уже привычно соединен с печатной платой контактами BGA.
Само по себе присоединение чипа с HBM-памятью к печатной плате несколько упрощается, так как в данном случае на PCB не будет никаких соединительных линий к микросхемам памяти, останутся только линии для передачи данных (по шине PCI Express и т. п.), а также для питания графического процессора и микросхем памяти. Часть этих сложностей переходит на слой interposer'а, поэтому его тестирование при производстве становится одной из самых важных задач.
Еще один важный технологический момент в присоединении чипов HBM-памяти друг к другу заключается в создании соединений типа through-silicon vias (TSV). Если interposer решает задачу маршрутизации широкой ширины памяти для GPU, то этот тип соединений позволяет соединить стопку микросхем памяти в единый 1024-битный стек. Причины для такого объединения нескольких чипов просты — облегчение производства и снижение количества отдельных устройств в системе. Главная сложность в том, что традиционные методы соединений, какие используются в упаковке PoP, не способны обеспечить достаточную плотность соединений, их должно быть очень много и они очень маленькие.
Поэтому проблема объединения стопки чипов DRAM была решена при помощи TSV-соединений. Обычные типы соединений позволяют соединить два слоя вместе, а TSV расширяет эти возможности, соединяя и дальнейшие кремниевые слои. С точки зрения производственного процесса, соединения типа TSV сложнее в производстве и объединение чипов DRAM в стеки является непростой технологической задачей. К стопке чипов памяти снизу присоединено еще и логическое ядро, которое отвечает за работу всех чипов DRAM в стеке и управляет шиной HBM между стеком и GPU.
Главным ограничителем для дальнейшего роста производительности сейчас являются возможности по изготовлению слоя interposer'а — в нем нужно сделать много очень маленьких соединений для нескольких слоев памяти. Именно поэтому количество слоев пока что ограничено четырьмя, а размещения восьми слоев придется немного подождать — в HBM второго поколения уже будет восемь слоев (и вдвое больше ПСП при прочих равных условиях, соответственно). В остальном HBM2 будет мало отличаться от HBM1. Разве что еще ожидается поддержка коррекции ошибок ECC, важная для применения в профессиональных решениях.
Также главной особенностью HBM памяти являются её размеры.
Ну а теперь поглядим на первый в мире чип HBM от AMD Fiji
Ну и самым главным минусом, из-за такого производства является цена, пожалуй это единственный серьезный минус.
Спасибо AMD за старания в виде развития технологий, и Hynix.
Очень полезные источники: