Найти в Дзене
WebHOST1.ru

Установка Deepseek на VPS сервер

Запуск DeepSeek, на собственном сервере — отличный способ использовать протестировать последние разработки в сфере ИИ. В этом руководстве мы подробно рассмотрим процесс установки DeepSeek, используя Ollama, а также настройку веб-интерфейса для удобного взаимодействия с моделью. Что такое DeepSeek и Ollama? Перед началом установки давайте разберем ключевые компоненты: DeepSeek — языковая модель, предназначенная для работы с текстовой информацией. Она способна отвечать на вопросы, генерировать тексты, анализировать данные и решать другие сложные задачи. Ollama — платформа для запуска LLM-моделей, таких как DeepSeek. Она упрощает процесс загрузки, запуска и настройки моделей. Минимальные требования к серверу ОС: Ubuntu 24.04 (64-битная версия) ОЗУ: минимум 8 ГБ (рекомендуется 16 ГБ или больше) Процессор: современный CPU с поддержкой многопоточности (желательно с AVX2) Накопитель: минимум 40 ГБ свободного места Для установки DeepSeek потребуется заказать VDS сервер для DeepSeek или выделе

Запуск DeepSeek, на собственном сервере — отличный способ использовать протестировать последние разработки в сфере ИИ. В этом руководстве мы подробно рассмотрим процесс установки DeepSeek, используя Ollama, а также настройку веб-интерфейса для удобного взаимодействия с моделью.

Что такое DeepSeek и Ollama?

Перед началом установки давайте разберем ключевые компоненты:

DeepSeek — языковая модель, предназначенная для работы с текстовой информацией. Она способна отвечать на вопросы, генерировать тексты, анализировать данные и решать другие сложные задачи. Ollama — платформа для запуска LLM-моделей, таких как DeepSeek. Она упрощает процесс загрузки, запуска и настройки моделей.

Минимальные требования к серверу ОС: Ubuntu 24.04 (64-битная версия) ОЗУ: минимум 8 ГБ (рекомендуется 16 ГБ или больше) Процессор: современный CPU с поддержкой многопоточности (желательно с AVX2) Накопитель: минимум 40 ГБ свободного места

Для установки DeepSeek потребуется заказать VDS сервер для DeepSeek или выделенный сервер для DeepSeek

Установка

1.Обновим ОС и установите Python и Git

sudo apt update && sudo apt upgrade -y

Установим Python (версии 3.8 или выше) и Git:

sudo apt install python3 python3-pip python3-venv git -y

Проверим версии

python3 --version git --version

2.Установка Ollama и DeepSeek

Для установки сервера ollama в консоли любой Linux системы нужно выполнить команду:

curl -fsSL https://ollama.com/install.sh | sh

Процесс установки будет выглядеть следующим образом и закончится сообщением — Install complete. Run «ollama» from the command line.

-2

Ознакомиться со всеми командами для работы с Ollama можно выполнив соответствующую команду — ollama в консоли сервера

-3

Чтобы загрузить и запустить языковую модель deepseek-r1, необходимо выполнить следующую команду в консоли сервера:

ollama run deepseek-r1:7b

Процесс загрузки языковой модели займёт некоторое время и потребует скачивания 4,7 ГБ данных с серверов ollama.

По завершении загрузки языковой модели вы увидите сообщение success и сразу же сможете начать общение с моделью через диалоговое окно.

-4

Чтобы завершить диалог с текущей языковой моделью, необходимо в консоли сервера выполнить команду Ctrl + d

Далее установим ещё одну языковую модель с параметрами 14b, используя команду:

ollama run deepseek-r1:14b

После установки также завершим работу языковой модели с помощью сочетания клавиш Ctrl + d. Затем в консоли сервера с помощью команды ollama list можно будет увидеть все установленные модели.

-5

3.Установка веб интерфейса Open WebUI

Установка виртуального окружения

sudo apt install python3-venv -y python3 -m venv ~/open-webui-venv source ~/open-webui-venv/bin/activate

Установка Open WebUI

pip install open-webui

После установки запустим сервер WebUI:

open-webui serve

После установки Web интерфейс будет доступен по адресу IP сервера:8080 (127.0.0.1:8080)