Найти в Дзене

Больше 5090 - больше проблем?


Мы протестировали связку из двух NVIDIA RTX 5090 и сравнили её с привычными RTX 4090.

Конфигурация тестового сервера:
▪️ Intel Core i9-14900KF 6.0 GHz (24 cores)
▪️ 192 GB RAM
▪️ 2 TB NVMe SSD
▪️ 2×RTX 5090 32 GB

Сначала было не всё гладко: Ubuntu, CUDA, Ollama и PyTorch поначалу «спотыкались» на multi-GPU режиме. Даже при правильной установке драйверов и библиотек — запуск моделей на двух GPU стабильно сыпал ошибки.

Решение оказалось не в софте, а в «железе». После переноса конфигурации на сервер с AMD EPYC 9354 (32 cores) и 1152 GB RAM связка из двух RTX 5090 заработала без сбоев.

Результаты:
— В задачах с большим контекстом (LLM до 70B параметров) 2×5090 показывают явное преимущество перед 2×4090, благодаря увеличенному объему видеопамяти и скорости работы тензорных блоков.
— В генерации графики (Stable Diffusion 3.5 Large, 1024×1024) разница меньше, но 5090 всё равно быстрее на ~30%.
— Основной минус — энергопотребление: сервер вытягивал до 1,5 кВт нагрузки.

Связка из двух RTX 5090 идеально подходит для задач, где нужен объем видеопамяти + параллелизм (LLM, ML, рендеринг). Но далеко не каждая конфигурация «потянет» эти карты — нужен серверный уровень питания и охлаждения.

👉 Полный разбор тестов читайте в статье ((https:/...a/)
Больше 5090 - больше проблем?  Мы протестировали связку из двух NVIDIA RTX 5090 и сравнили её с привычными RTX 4090.  Конфигурация тестового сервера: ▪️ Intel Core i9-14900KF 6.
1 минута