Найти в Дзене
CPU и RAM для AI/LLM: быстрый гайд от MDM Electronics
ИИ-сервер — это не только GPU. Если недооценить процессор и оперативную память, видеокарты простаивают, а задержки растут. Инференс LLM Обучение / дообучение Всегда держите запас: плюс 20–30% к расчётам на пики и служебные буферы. A. 2×GPU по 48 ГБ, чат-бот, окно 8k, до 300 RPS B. 4×GPU по 48 ГБ, длинные контексты 16–32k, ~400 RPS C. 8×GPU по 80–192 ГБ, LoRA/SFT + периодический инференс...
2 дня назад
Сколько видеопамяти нужно для ИИ-сервера: простой способ посчитать
Искусственный интеллект всё чаще работает не в облаке, а прямо в компаниях — на своих серверах. Главный вопрос при сборке такого сервера — сколько видеопамяти нужно, чтобы модель не «захлебнулась» и при этом не платить лишнее за VRAM. Когда мы запускаем нейросеть, память тратится на два больших блока: К этому добавляются служебные буферы и фрагментация — примерно ещё +20% резерва. Есть два подхода: быстрый (для оценки «на глаз») и точный (для инженерного расчёта). Используем простые усреднённые цифры: Формула простая: VRAM ≈ Веса + (Контекст × Окно/1000 × Пользователи) × 1...
5 дней назад
Сколько стоит сервер для нейросетей в 2025 году — полный гайд от MDM Electronics
Интерес к искусственному интеллекту в 2025 году только набирает обороты. Компании всё чаще принимают решение отказаться от облаков в пользу своих серверов. Но сколько это действительно стоит? И когда «своё железо» — выгоднее аренды? Разбираемся по пунктам. 💰 GPU — 60–70 % бюджета Выбор GPU — главное решение. От него зависит не только производительность, но и весь остальной стек оборудования. 🧠 CPU и RAM — 15–20 % Процессор и оперативная память подбираются под задачи: от simple inference до генерации и обучения больших моделей...
1 месяц назад
Что такое AI-ускорители и можно ли так называть серверное оборудование?
Искусственный интеллект требует мощных вычислений — обучение нейросетей и запуск больших моделей невозможно на «обычных» компьютерах. Для этого используют AI-ускорители. Но что именно скрывается за этим термином и можно ли называть так оборудование, которое предлагают серверные интеграторы? AI-ускоритель — это любое аппаратное решение, которое позволяет ускорять задачи машинного обучения и работы нейросетей. Это может быть: Главное — ускоритель оптимизирован для параллельных вычислений и работы с большими массивами данных...
1 месяц назад
Multi-GPU и кластеризация для AI: как объединить RTX, H100 и MI300X в мощный кластер
Когда одного GPU уже недостаточно, на сцену выходят кластеры. В 2025 году задачи искусственного интеллекта растут быстрее, чем мощности одиночных видеокарт. Обучение LLM, генерация изображений в высоком разрешении, сложный рендеринг — всё это требует объединения нескольких GPU в единую систему. Разберёмся, как работают AI-кластеры, чем отличаются решения на RTX, H100 и MI300X, и как выбрать оптимальную конфигурацию. Представьте, что вы обучаете языковую модель с 70+ миллиардов параметров или создаёте 8K-анимацию с физическим моделированием...
1 месяц назад
Если нравится — подпишитесь
Так вы не пропустите новые публикации этого канала