Найти в Дзене

Разворачиваем нейросеть DeepSeek на своем сервере

Оглавление

В данной статье мы рассмотрим процесс развертывания модели DeepSeek на вашем сервере, что позволит использовать ИИ в защищённой и управляемой среде.

Запуск модели DeepSeek на локальных ресурсах значительно повышает производительность нейросети, обеспечивая высокую конфиденциальность данных и предоставляя возможность гибкой настройки под конкретные задачи пользователя. С помощью данного руководства вы сможете развернуть DeepSeek и настроить ограничение доступа к модели для нескольких устройств в вашей локальной сети.

-2

Какая модель будет использоваться?

DeepSeek-R1 — это продвинутая модель с 671 миллиардами параметров и архитектурой Mixture of Experts. Для её запуска потребуется около 1,5 ТБ видеопамяти, что является довольно высокими требованиями для большинства домашних систем. В качестве альтернативы можно использовать более легкую модель DeepSeek-R1-Distill-Qwen-7B. Эта версия модели значительно меньше по размеру, но сохраняет большую точность благодаря обучению на данных, сгенерированных оригинальной DeepSeek-R1.

Зачем запускать DeepSeek на собственном сервере?

В рамках статьи под «собственным» сервером подразумевается арендованная машина с GPU в облаке. Это не физический сервер, а виртуальная, изолированная среда с выделенными ресурсами, где вы полностью контролируете все аспекты работы. Такой подход позволяет развернуть DeepSeek в безопасной среде, не рискуя передавать данные внешним сервисам.

Преимущества использования облачного сервера для DeepSeek:

  • Конфиденциальность: Все данные остаются внутри вашей инфраструктуры, не передаются в сторонние сервисы и не обрабатываются за пределами вашей зоны контроля.
  • Высокая производительность: Облачные серверы с GPU (например, NVIDIA L40S) предоставляют максимальную эффективность при обучении и инференсе нейросетей.
  • Гибкость настроек: Вы можете выбрать необходимую конфигурацию сервера: объём видеопамяти, тип процессора, количество оперативной памяти, тип дисков, а также изменить её по мере необходимости.
  • Отсутствие затрат на оборудование: Не нужно инвестировать в дорогостоящее железо, настраивать и поддерживать его — инфраструктура уже готова к использованию.
  • Понимание нейросетевых технологий: Разворачивая модель самостоятельно, вы получаете более глубокое понимание работы нейросетей и их внутренней структуры.

Стоит ли разворачивать модель на физическом сервере?

Такой вариант возможен, если у вас уже есть подходящее оборудование. Однако он связан с рядом недостатков:

  • Высокие расходы на приобретение видеокарт с большим объёмом памяти (например, L40S, L4, A100 и другие).
  • Необходимость самостоятельного подбора и сборки оборудования.
  • Значительные энергетические затраты на сервер.
  • Постоянная необходимость в технической поддержке и обновлении оборудования.

Для большинства пользователей облачная инфраструктура будет более удобным и экономически оправданным решением, так как она легко масштабируется под ваши нужды, не требует технического обслуживания и доступна для быстрого старта.

Что нужно для запуска DeepSeek?

Чтобы обеспечить стабильную работу модели и её эффективное функционирование, необходимо наличие сервера с соответствующими характеристиками. Рекомендуемая минимальная конфигурация для запуска DeepSeek-R1:7B:

  • Процессор: минимум 12 ядер (например, AMD EPYC 9374F или Intel Xeon Gold 6354).
  • Видеокарта: NVIDIA с поддержкой CUDA (например, NVIDIA L4 или NVIDIA L40S). Возможна работа на AMD, однако это менее распространённый вариант.
  • Оперативная память: минимум 16 ГБ, для более крупных моделей — от 32 ГБ.
  • Дисковая система: NVMe-накопители с высокой скоростью обмена данными и низкой задержкой.
  • Операционная система: для полной совместимости рекомендуются Ubuntu или её производные.

Такую конфигурацию можно арендовать в mClouds, что позволит избежать затрат на покупку собственного оборудования, обеспечить необходимую гибкость для масштабирования и достичь высокой производительности при работе с DeepSeek.

Установка DeepSeek

Поскольку процесс запуска модели DeepSeek будет происходить на облачном сервере, то для начала необходимо арендовать его через личный кабинет mClouds. В статье будем использовать тарифный план X4-8GB: NVIDIA L4 8 Гб, CPU Intel Xeon Gold 6354 3.9 Ггц, RAM - 16 Гб, SSD - 90 Гб. Такой сервер полностью подходит для запуска моделей DeepSeek.

Отдельно стоит отметить, что после заказа специалисты техподдержки подготовят сервер для работы с нейросетями и установят необходимые драйверы. Вам останется только подключиться к серверу и приступить к работе.

Устанавливать DeepSeek будем через Ollama — это инструмент, предназначенный для локального запуска моделей ИИ. Откройте терминал и запустите:

curl -fsSL https://ollama.com/install.sh | sh

Эта команда загружает и выполняет скрипт установки Ollama. Во время установки Ollama автоматически настроится и запустит необходимые службы. После завершения процесса проверьте установку:

ollama --version

Чтобы проверить, запущена ли Ollama, используйте:

systemctl is-active ollama.service

Если вывод равен active, то служба запущена, и можно перейти к следующему шагу.

Если нет, запустите ее вручную:

sudo systemctl start ollama.service

Чтобы всегда запускать службу при загрузке системы, выполните:

sudo systemctl enable ollama.service

Чтобы загрузить и запустить 7b модель, используйте команду:

ollama run deepseek-r1:7b

Подключение через веб-интерфейс Open WebUI

Для удобной работы с DeepSeek установите Open WebUI — централизованную панель управления.

Способ 1. Через установщик пакетов Python pip:

pip3 install open-webui

Способ 2. Через Snap:

sudo apt update
sudo apt install snapd
sudo snap install open-webui --beta

Запуск Open WebUI:

После установки запустите Open WebUI с помощью команды:

open-webui serve

Если предыдущие шаги выполнены верно, то ваш сервер будет доступен по адресу http://localhost:8080, где «localhost» это локальный IP-адрес вашего сервера. Для доступа к серверу с других устройств понадобится сделать ряд действий, которые мы описали в продолжении статьи.

Использование обратного прокси на базе Nginx

Если хотите более гибко управлять трафиком, используйте Nginx в качестве обратного прокси.

1. Установите Nginx:

sudo apt install nginx

2. Создайте конфигурацию обратного прокси-сервера:

sudo vi /etc/nginx/sites-available/deepseek

3. Добавьте следующую конфигурацию:

server {
listen 80;
server_name your-local-domain.local;
location / {
proxy_pass http://localhost:8080;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}
}

4. Включите и перезапустите Nginx:

sudo ln -s /etc/nginx/sites-available/deepseek /etc/nginx/sites-enabled/
sudo nginx -t # Test the configuration
sudo systemctl restart nginx

Теперь доступ к интерфейсу будет осуществляться по адресу:

http://your-local-domain.local

Заключение

Запуск DeepSeek на собственных ресурсах предоставляет больше контроля над нейросетью, повышает ее конфиденциальность и производительность. Такой подход будет полезен разработчикам и ИТ-специалистам, которым важна производительность, автономность и возможность гибкой настройки ИИ.

Максимальной скорости и производительности DeepSeek можно добиться, арендовав облачные серверы с GPU NVIDIA L4 или NVIDIA L40S. Последний вариант это топовое решение для задач с ИИ, обучением и инференсом нейросетей высокой интенсивности. Серверы с GPU доступны для тестирования.

Deep Seek
20,9 тыс интересуются