Высокий уровень спроса на современные центры обработки данных с поддержкой нейросетей и технологий машинного обучения привел к возрастанию спроса на оперативную память с высокой пропускной способностью (HBM). Так основными компаниями, поставляющими данную память на мировые рынки в 2022 году, были SK hynix (50 %), Samsung (40 %) и Micron (10 %). По мнению экспертов по окончанию 2023 года SK Hynix может занять уже более 50% рынка HBM памяти.
С середины нынешнего года Nvidia и AMD начали производить собственные ускорители для серверов H100 и MI300 соответственно, в которых используется память стандарта HBM3. На данный момент лишь компания SK hynix занимается серийным выпуском данных чипов памяти. На основании этого эксперты предполагают, что к концу нынешнего года доля южнокорейской компании на мировом рынке HBM3 памяти превысит 50% и составит 53%. Так как предположительно Samsung и Micron станут выпускать память HBM3 только в конце 2023 или начале 2024 года.
Во временной промежуток между 2023 и 2027 годами прогнозируется рост поставок новых центров обработки данных с поддержкой искусственного интеллекта на 12% в год. Это в свою очередь увеличит спрос на серверную SSD, DRAM и HBM память. Обычные серверы без поддержки искусственного интеллекта имеют около 500-600 Гб DRAM, тогда как серверам с технологиями искусственного интеллекта для нормальной работы требуется примерно от 1,2 до 1,7 Тб оперативной памяти.
Для памяти, применяющейся в центрах обработки данных, их производители до сих пор предпочитают использовать DRAM и HBM, из-за все еще малой для данного сегмента емкости SSD накопителей. Таким образом, увеличение сложности и количества серверов с поддержкой ИИ будет способствовать дальнейшему увеличению спроса на HBM память.