Найти в Дзене
CPU и RAM для AI/LLM: быстрый гайд от MDM Electronics
ИИ-сервер — это не только GPU. Если недооценить процессор и оперативную память, видеокарты простаивают, а задержки растут. Инференс LLM Обучение / дообучение Всегда держите запас: плюс 20–30% к расчётам на пики и служебные буферы. A. 2×GPU по 48 ГБ, чат-бот, окно 8k, до 300 RPS B. 4×GPU по 48 ГБ, длинные контексты 16–32k, ~400 RPS C. 8×GPU по 80–192 ГБ, LoRA/SFT + периодический инференс...
2 дня назад
Сколько видеопамяти нужно для ИИ-сервера: простой способ посчитать
Искусственный интеллект всё чаще работает не в облаке, а прямо в компаниях — на своих серверах. Главный вопрос при сборке такого сервера — сколько видеопамяти нужно, чтобы модель не «захлебнулась» и при этом не платить лишнее за VRAM. Когда мы запускаем нейросеть, память тратится на два больших блока: К этому добавляются служебные буферы и фрагментация — примерно ещё +20% резерва. Есть два подхода: быстрый (для оценки «на глаз») и точный (для инженерного расчёта). Используем простые усреднённые цифры: Формула простая: VRAM ≈ Веса + (Контекст × Окно/1000 × Пользователи) × 1...
5 дней назад
Сколько стоит сервер для нейросетей в 2025 году — полный гайд от MDM Electronics
Интерес к искусственному интеллекту в 2025 году только набирает обороты. Компании всё чаще принимают решение отказаться от облаков в пользу своих серверов. Но сколько это действительно стоит? И когда «своё железо» — выгоднее аренды? Разбираемся по пунктам. 💰 GPU — 60–70 % бюджета Выбор GPU — главное решение. От него зависит не только производительность, но и весь остальной стек оборудования. 🧠 CPU и RAM — 15–20 % Процессор и оперативная память подбираются под задачи: от simple inference до генерации и обучения больших моделей...
1 месяц назад
Что такое AI-ускорители и можно ли так называть серверное оборудование?
Искусственный интеллект требует мощных вычислений — обучение нейросетей и запуск больших моделей невозможно на «обычных» компьютерах. Для этого используют AI-ускорители. Но что именно скрывается за этим термином и можно ли называть так оборудование, которое предлагают серверные интеграторы? AI-ускоритель — это любое аппаратное решение, которое позволяет ускорять задачи машинного обучения и работы нейросетей. Это может быть: Главное — ускоритель оптимизирован для параллельных вычислений и работы с большими массивами данных...
1 месяц назад
Multi-GPU и кластеризация для AI: как объединить RTX, H100 и MI300X в мощный кластер
Когда одного GPU уже недостаточно, на сцену выходят кластеры. В 2025 году задачи искусственного интеллекта растут быстрее, чем мощности одиночных видеокарт. Обучение LLM, генерация изображений в высоком разрешении, сложный рендеринг — всё это требует объединения нескольких GPU в единую систему. Разберёмся, как работают AI-кластеры, чем отличаются решения на RTX, H100 и MI300X, и как выбрать оптимальную конфигурацию. Представьте, что вы обучаете языковую модель с 70+ миллиардов параметров или создаёте 8K-анимацию с физическим моделированием...
1 месяц назад
Почему сеть может тормозить ваш AI-кластер — и как это исправить
Многие считают, что основа производительности в AI — это видеокарты. Но на практике, особенно в больших задачах вроде генерации изображений, LLM или обучения нейросетей, ключевым ограничением может стать… сеть. Вы закупили топовые GPU — RTX 6000 PRO, H100 или MI300X, построили сервер, запустили задачу… и не увидели ожидаемой скорости. Всё тормозит. Почему? Одна из причин — ограниченная пропускная способность между узлами кластера. Если данные передаются слишком медленно, ускорители простаивают. Особенно это заметно при распределённом обучении моделей или инференсе больших языковых моделей...
2 месяца назад
Что лучше для ИИ в 2025 году: NVIDIA H100 или AMD MI300X?
Обучение нейросетей, генерация изображений, запуск больших языковых моделей — всё это требует серьёзных вычислительных мощностей. На рынке сейчас два флагмана: NVIDIA H100 и AMD MI300X. В этой статье разберём, в чём разница между ними и какое решение лучше подойдёт под ваши задачи. GPU H100 построен на архитектуре Hopper. Это надёжный выбор для тех, кто работает в экосистеме NVIDIA: TensorRT, PyTorch, Triton Inference Server — всё оптимизировано. Он идеально подходит для обучения крупных моделей, построения AI‑кластеров, high-end‑симуляций...
2 месяца назад
RTX 6000 PRO Blackwell — новый уровень производительности для AI и визуальных задач
Современные AI‑системы, генеративные модели и визуализация требуют всё больше ресурсов. RTX 6000 PRO Blackwell — новейшее поколение профессиональных видеокарт от NVIDIA, которое предлагает сбалансированное решение для задач, где важны производительность, надёжность и большой объём видеопамяти. Это видеокарта профессионального класса с рекордными характеристиками, ориентированная на задачи машинного обучения, больших языковых моделей, графических расчётов и научных вычислений. Мы уже получили первую партию RTX 6000 PRO Blackwell...
2 месяца назад
Варианты серверов для развертывания локального ИИ.
2 месяца назад
Модифицированные RTX 4090 на 48 ГБ: зачем они нужны и кому подойдут
С ростом задач в AI и генеративной графике стандартных 24 ГБ видеопамяти у RTX 4090 становится мало. Решение? Неофициальные, но рабочие модификации с удвоенным объёмом памяти — 48 ГБ VRAM, произведённые в Китае. Разберёмся, что это за видеокарты, кому они подойдут и в каких задачах действительно выгодны. Китайские производители берут оригинальную RTX 4090, основанную на архитектуре Ada Lovelace, и заменяют чипы памяти на более ёмкие. Так получают видеокарты с 48 ГБ GDDR6X, которые снаружи выглядят привычно, но внутри — вдвое мощнее по объёму памяти...
2 месяца назад
Актуальные GPU для обучения нейросетей в 2025 году: обзор от MDM Electronics
MDM Electronics делится свежим обзором видеокарт, которые оптимально подходят для обучения нейросетей и запуска AI‑систем в 2025 году. Здесь только проверенные решения — с которыми мы работаем сами и поставляем клиентам под задачи любого масштаба. 🔹 NVIDIA H100 — 80 ГБ HBM3, до 3,35 ТБ/с, высокая эффективность на FP8 и BF16. Идеален для сложного обучения больших языковых моделей. 👉 В наличии: ASRock сервер с H100/H200 Supermicro с 8 GPU H100 🔹 NVIDIA H200 — до 141 ГБ HBM3e, пропускная способность до 4,8 ТБ/с...
2 месяца назад
Когда локальные AI-серверы выгоднее, чем облако: 6 практических аргументов
Облако — удобно. Но если вы работаете с нейросетями на серьёзных оборотах, удобство быстро превращается в перерасход бюджета, задержки и ограничения. Мы в MDM Electronics собрали опыт десятков проектов и рассказываем, когда локальные серверы для ИИ становятся действительно выгоднее. Если ваш проект обрабатывает персональные, медицинские или финансовые данные, облако несёт риски. Локальный сервер — это полный контроль: защита на уровне TPM, изолированная инфраструктура, физический доступ только у вас...
2 месяца назад