Найти в Дзене

NVIDIA улучшила Docker Model Runner для DGX Station — 252 ГБ памяти

NVIDIA представила улучшенную версию Docker Model Runner для новой DGX Station, которая теперь предлагает 252 ГБ GPU-памяти и 7,1 ТБ/с пропускной способности. Это означает, что разработчики могут запускать крупные AI-модели быстрее и эффективнее, что критически важно в условиях растущего спроса на AI-технологии. DGX Station — это мощная система, построенная на архитектуре NVIDIA GB300, которая значительно превосходит предшествующую модель DGX Spark. Новая система может обрабатывать триллионные модели и одновременно обслуживать несколько пользователей благодаря технологии Multi-Instance GPU (MIG), позволяющей разделять один GPU на семь изолированных экземпляров. Это открывает новые горизонты для командной работы разработчиков. Согласно спецификациям, DGX Station оснащена 748 ГБ когерентной памяти и поддерживает работу с многими моделями одновременно. Например, она может запускать наилучшие открытые 1Т параметры без необходимости квантования. Для разработчиков это значит доступ к ресурса
Оглавление

NVIDIA представила улучшенную версию Docker Model Runner для новой DGX Station, которая теперь предлагает 252 ГБ GPU-памяти и 7,1 ТБ/с пропускной способности. Это означает, что разработчики могут запускать крупные AI-модели быстрее и эффективнее, что критически важно в условиях растущего спроса на AI-технологии.

Преимущества DGX Station

DGX Station — это мощная система, построенная на архитектуре NVIDIA GB300, которая значительно превосходит предшествующую модель DGX Spark. Новая система может обрабатывать триллионные модели и одновременно обслуживать несколько пользователей благодаря технологии Multi-Instance GPU (MIG), позволяющей разделять один GPU на семь изолированных экземпляров. Это открывает новые горизонты для командной работы разработчиков.

Согласно спецификациям, DGX Station оснащена 748 ГБ когерентной памяти и поддерживает работу с многими моделями одновременно. Например, она может запускать наилучшие открытые 1Т параметры без необходимости квантования.

Как это повлияет на разработчиков

Для разработчиков это значит доступ к ресурсам, ранее доступным только в датацентрах, но теперь — прямо на столе. В частности, они могут запускать ускоренные рабочие процессы AI, что идеально подходит для разработки агентных AI-потоков, требующих одновременной работы нескольких моделей, например, моделей для обработки текста и генерации кода.

Кроме того, используя Docker Model Runner, разработчики могут продолжать работать в привычной среде, что снижает время на обучение и позволяет сосредоточиться на решении задач, а не на настройке среды.

Перспективы для AI-рынка

Согласно прогнозам, компании, использующие подобные решения, могут ускорить процесс разработки AI-проектов на 30-50%. Это особенно актуально для стартапов и крупных корпораций, стремящихся к быстрому запуску продуктов и уменьшению времени на вывод на рынок.

The post NVIDIA улучшила Docker Model Runner для DGX Station — 252 ГБ памяти appeared first on iTech News.