NVIDIA представила улучшенную версию Docker Model Runner для новой DGX Station, которая теперь предлагает 252 ГБ GPU-памяти и 7,1 ТБ/с пропускной способности. Это означает, что разработчики могут запускать крупные AI-модели быстрее и эффективнее, что критически важно в условиях растущего спроса на AI-технологии. DGX Station — это мощная система, построенная на архитектуре NVIDIA GB300, которая значительно превосходит предшествующую модель DGX Spark. Новая система может обрабатывать триллионные модели и одновременно обслуживать несколько пользователей благодаря технологии Multi-Instance GPU (MIG), позволяющей разделять один GPU на семь изолированных экземпляров. Это открывает новые горизонты для командной работы разработчиков. Согласно спецификациям, DGX Station оснащена 748 ГБ когерентной памяти и поддерживает работу с многими моделями одновременно. Например, она может запускать наилучшие открытые 1Т параметры без необходимости квантования. Для разработчиков это значит доступ к ресурса
NVIDIA улучшила Docker Model Runner для DGX Station — 252 ГБ памяти
2 дня назад2 дня назад
1 мин