ИИ-сервер — это не только GPU. Если недооценить процессор и оперативную память, видеокарты простаивают, а задержки растут. Инференс LLM Обучение / дообучение Всегда держите запас: плюс 20–30% к расчётам на пики и служебные буферы. A. 2×GPU по 48 ГБ, чат-бот, окно 8k, до 300 RPS B. 4×GPU по 48 ГБ, длинные контексты 16–32k, ~400 RPS C. 8×GPU по 80–192 ГБ, LoRA/SFT + периодический инференс Подберём CPU и RAM под вашу модель, окна и целевые RPS; соберём сервер или кластер, настроим NUMA, проверим на ваших данных. Нужен расчёт под вашу задачу? Напишите — подготовим 2–3 варианта конфигурации с бюджетом, ожидаемой производительностью и планом масштабирования. Отправить заявку на бесплатную консультацию или посмотреть комплектации серверов для ИИ Вы можете на нашем сайте >>
CPU и RAM для AI/LLM: быстрый гайд от MDM Electronics
10 октября 202510 окт 2025
8
2 мин