CPU и RAM для AI/LLM: быстрый гайд от MDM Electronics
ИИ-сервер — это не только GPU. Если недооценить процессор и оперативную память, видеокарты простаивают, а задержки растут. Инференс LLM Обучение / дообучение Всегда держите запас: плюс 20–30% к расчётам на пики и служебные буферы. A. 2×GPU по 48 ГБ, чат-бот, окно 8k, до 300 RPS B. 4×GPU по 48 ГБ, длинные контексты 16–32k, ~400 RPS C. 8×GPU по 80–192 ГБ, LoRA/SFT + периодический инференс...