Найти тему
OVERCLOCKERS.RU

Nvidia вернулась к графическим картам с двумя GPU

Nvidia анонсировала новый продукт с двумя графическими процессорами под названием H100 NVL, во время своего выступления на GTC Spring 2023. Новинка не является возвратом к SLI и она не станет одной из лучших видеокарт для игр, а вместо этого нацелена на растущий рынок искусственного интеллекта. Судя по информации и изображениям, опубликованным Nvidia, H100 NVL (H100 NVLink) будет иметь три разъема NVLink, а две соседние карты вставляются в отдельные слоты PCIe.

Необходимо обратить внимание, что в существующем H100 PCIe уже есть три NVLink, но в H100 NVL внесены некоторые другие изменения, и он также будет продаваться только как решение для сопряженных карт. Это интересное решение для серверов, которые не поддерживают Nvidia SXM. Соединения NVLink должны помочь обеспечить недостающую пропускную способность, которую NVSwitch дает решениям SXM, но есть и другие заметные отличия.

Предыдущие решения H100 как в формате SXM, так и PCIe поставлялись с 80 ГБ памяти (HBM3 для SXM, HBM2e для PCIe), но реально содержит шесть блоков, каждый с 16 ГБ памяти. Неясно, полностью ли отключен один блок, предназначен ли он для ECC или для какой-либо другой цели. Что известно, так это то, что H100 NVL будет комплектоваться 94 ГБ на GPU и общим объемом памяти HBM3 в 188 ГБ. Можно предположить, что недостающие 2 ГБ на GPU связаны либо с использованием ECC, либо каким-то образом связаны с производственными сложностями.

Мощность новинки немного выше, чем у H100 PCIe, и составляет в диапазоне 350–400 Вт на GPU. Общая производительность фактически удваивается по сравнению с H100 SXM: 134 терафлопс FP64, 1979 терафлопс TF32, 7916 терафлопс FP8, а также 7916 терафлопс INT8).

По сути, это похоже на тот же дизайн, что и у H100 PCIe, который также поддерживает NVLink, но потенциально имеет большее количество ядер графического процессора и увеличенный на 17,5% объем памяти. Пропускная способность памяти также немного выше, чем у H100 PCIe, благодаря переходу на HBM3. H100 NVL имеет скорость 3,9 ТБ/с на GPU и в сумме 7,8 ТБ/с, что значительно выше 2 ТБ/с для H100 PCIe и 3,35 ТБ/с для H100 SXM.

Поскольку новое решение имеет две карты, каждая из которых занимает 2 слота, поддерживается только от 2 до 4 пар карт H100 NVL для партнерских и сертифицированных систем. Сколько будет стоить одна пара и можно ли будет их купить отдельно, еще предстоит выяснить. Стоит отметить, что один H100 PCIe стоит около 28000 долларов. Так что 80000 долларов за пару H100 NVL не кажутся чем-то невероятным.

📃 Читайте далее на сайте