Найти в Дзене

Сервер за 3 млн - что внутри и за что вы платите на самом деле

Три миллиона рублей — это не «коробка с железом», а инструмент под конкретный SLA: безпросадочная виртуализация, быстрые БД, старт ИИ-сценариев, хранилища без падений на пиках записи. Разбираем, что обычно стоит внутри «трёхмиллионника», какие узлы тянут цену и какие наборы сейчас выбирают чаще всего. 1) Универсал под виртуализацию, микросервисы, VDI
Платформы: HPE ProLiant DL385 Gen11 / DL325 Gen11; Dell PowerEdge R7625.
CPU: 2× EPYC 9334/9454 (64–96 ядер суммарно) или 1× EPYC 9354P (частотный 1-сокет).
RAM: 512 ГБ DDR5 ECC (апгрейд до 1 ТБ).
Хранилище:
— Система: 2× NVMe 3.84 ТБ (RAID1)
— Данные/ВМ: 4–6× NVMe 7.68 ТБ (RAID10)
Сеть: 2×25 GbE (LACP); для кластера — аплинк 100 GbE.
Почему работает: высокая частота → быстрый отклик ВМ/API; RAID10 на NVMe → без «фризов» при пиках I/O. 2) БД/ERP/1С, OLTP + отчёты (минимум задержек)
Платформы: HPE DL385 Gen11 / DL360/380 Gen11 (под частотные Xeon), Dell R760/R7625.
CPU: 2× EPYC 9354/9454 или Xeon с высоким бустом.
RAM: 512 ГБ–
Оглавление

Три миллиона рублей — это не «коробка с железом», а инструмент под конкретный SLA: безпросадочная виртуализация, быстрые БД, старт ИИ-сценариев, хранилища без падений на пиках записи. Разбираем, что обычно стоит внутри «трёхмиллионника», какие узлы тянут цену и какие наборы сейчас выбирают чаще всего.

Что обычно даёт сервер «за ~3 млн» по железу

  • CPU. Чаще AMD EPYC 9004 (Genoa/Bergamo): 1–2 сокета, 32–96 ядер на сокет. Альтернатива — современные Xeon 6 с упором на частоту/ядро.
  • ОЗУ. 256–1024 ГБ DDR5 ECC (в прод-виртуализации и БД — чаще 512 ГБ+).
  • Диски. NVMe Gen4/Gen5 под систему и «горячие» данные (системный зеркальный пул + RAID10 под нагрузку). Для ёмкости — HDD-полка с NVMe-кэшем.
  • Сеть. База — 2×25 GbE; под кластеры/ИИ — 100 GbE (с RDMA/RoCE).
  • Опции. SmartNIC/DPU (TLS/VXLAN offload), отдельные NVMe под журналы БД; иногда 1× GPU под инференс (L40S/L4-класс).
  • Охлаждение/питание. N+1 по БП, направленный воздушный тоннель; для 4× GPU — усиленная вентиляция/жидкостное охлаждение.
-2

Три типовых конфигурации «за ~3 млн»

1) Универсал под виртуализацию, микросервисы, VDI

Платформы: HPE ProLiant
DL385 Gen11 / DL325 Gen11; Dell PowerEdge R7625.

CPU: 2× EPYC 9334/9454 (64–96 ядер суммарно)
или 1× EPYC 9354P (частотный 1-сокет).

RAM: 512 ГБ DDR5 ECC (апгрейд до 1 ТБ).

Хранилище:

— Система: 2× NVMe 3.84 ТБ (RAID1)

— Данные/ВМ: 4–6× NVMe 7.68 ТБ (RAID10)

Сеть: 2×25 GbE (LACP); для кластера — аплинк 100 GbE.

Почему работает: высокая частота → быстрый отклик ВМ/API; RAID10 на NVMe → без «фризов» при пиках I/O.

2) БД/ERP/1С, OLTP + отчёты (минимум задержек)

Платформы: HPE DL385 Gen11 / DL360/380 Gen11 (под частотные Xeon), Dell R760/R7625.

CPU: 2× EPYC 9354/9454
или Xeon с высоким бустом.

RAM: 512 ГБ–1 ТБ (важна равномерная раскладка по каналам/рэнгам).

Хранилище:

— Система: 2× NVMe (RAID1)

— База: 4× NVMe 7.68 ТБ (RAID10)

— Журналы (WAL/REDO): 2× NVMe 3.84 ТБ (mirror)

Сеть: 2×25 GbE; при репликации/шардинге — 100 GbE.

Почему работает: разнесение пулов + отдельный журнал → стабильная запись и «чистые» окна бэкапов/индексации.

-3

3) Старт ИИ-инференса/видеоаналитики на площадке (edge-AI)

Платформы: HPE DL385/DL380 Gen11 (GPU-kit), Dell R750xa/R760xa.

CPU: 1× EPYC 9334/9354.

RAM: 256–512 ГБ.

GPU: 1× NVIDIA
L40S (универсальный инференс/видео) или 1× NVIDIA L4 (энергоэффективный).

Хранилище: 2× NVMe (RAID1) + 2–4× NVMe под модели/кэш.

Сеть: 2×25 GbE; для распределённого инференса — 100 GbE; опционально DPU.

Почему работает: одна L40S закрывает детекцию/рекомендации локально, без поездок в облако.

-4

Что сильнее всего влияет на цену

  • CPU и лицензии. 2 сокета и высокий буст дорожают быстрее всего; иногда выгоднее 1-сокет EPYC (экономия TCO/лицензий per-socket).
  • ОЗУ. Шаг с 512 ГБ до 1 ТБ — заметный скачок бюджета; заложите реальную потребность.
  • NVMe-полка. RAID10 из 7.68 ТБ — дорого, зато IOPS/латентность предсказуемы. Комбинируйте: «горячее» — NVMe, «тёплое» — HDD + кэш.
  • Сеть. 100 GbE имеет смысл для кластеров/ИИ; одиночному узлу часто достаточно 25 GbE.
  • GPU/DPU. Даже одна L40S добавляет сотни тысяч; DPU окупается там, где TLS/overlay реально съедают CPU.

Как понять, окупятся ли «3 млн»

Быстрая прикидка TCO/ROI (упрощённо):

Окупаемость ≈
3 000 000 ₽ / (X × Δ),

где X — стоимость часа простоя, Δ — сокращённые часы простоев в месяц (или прирост выработки). Плюс учтите экономию на лицензиях (1 socket vs 2), энергопотреблении DDR5/новых БП и «стоимость» ускоренных релизов.

Чек-лист перед заказом

  • Сценарий: виртуализация, БД/OLTP, аналитика, ИИ/инференс, хранилище?
  • Пики: одновременные ВМ/соединения/запросы, допустимая латентность?
  • Данные: объёмы «горячего/тёплого», нужен ли отдельный пул под журналы.
  • Сеть: одиночный узел или кластер; требуются ли RDMA/100 GbE.
  • Лицензии: per-socket/per-core — влияет на выбор 1s vs 2s.
  • Площадка: стойки, питание, охлаждение, глубина/шумовые лимиты.
-5

Коротко о линейках, которые «заходят» чаще

  • HPE ProLiant Gen11 (DL325/DL385): удобный iLO, сильная база под EPYC.
  • Dell PowerEdge 16-го поколения (R760/R7625/R750xa): широкая экосистема, GPU-конфигурации.
  • Supermicro A+/H13 (EPYC): гибкие шасси под NVMe/GPU.
  • Под хранилища: 12–24 отсека, NVMe-кэш + HDD-полка, 25/100 GbE.

Итог

«Сервер за 3 млн» — это про точное соответствие задаче. Для виртуализации он даёт плотность и предсказуемый отклик, для БД — низкую задержку и стабильную запись, для ИИ — быстрый локальный инференс. Ключ — честный бриф по нагрузке и аккуратная сборка (CPU/ОЗУ/диски/сеть) без модных, но лишних опций.

Азияторг соберёт конфигурацию под ваш сценарий — Gen11/EPYC для ВМ и БД, узел с GPU для инференса, хранилище с NVMe-кэшем — с учётом стойки, питания и сроков внедрения.

📩 Для расчёта и сроков напишите на
server@tkasiatorg.ru.