Micron начала поставлять образцы модулей SOCAMM2 емкостью 256 ГБ, что позволяет достигать емкости до 2 ТБ LPDDR5X на ЦП в ИИ-серверах. — tomshardware.com Большая часть разговоров о скорости в дата-центрах ИИ вращается вокруг самих ускорителей, обсуждения токенов в секунду и тому подобного. Однако битва за производительность ИИ ведется на нескольких фронтах, и один из них — это емкость памяти и энергоэффективность. Сегодня Micron представила, по всей видимости, первые в отрасли модули SOCAMM2 емкостью 256 ГБ — это значительный шаг вперед по сравнению с лучшими на данный момент 192-гигабайтными модулями, выпущенными всего шесть месяцев назад. Компания заявляет, что уже отгружает образцы заказчикам, которые, несомненно, будут рады перспективе подключения 2 ТБ памяти к каждому ЦП. В качестве одного из главных примеров, типичный для Nvidia стоечный сервер NVL72 теперь может вмещать 72 ТБ оперативной памяти для своих 36 ЦП. Увеличение плотности на 33% по сравнению с SOCAMM2 предыдущего покол
Micron начала поставки первых 256-гигабитных модулей памяти SOCAMM2 заказчикам
4 марта4 мар
1
2 мин