Добавить в корзинуПозвонить
Найти в Дзене
Бурый

Open WebUI: как запустить свой ChatGPT на компьютере бесплатно

Я был уверен, что локальная нейросеть — это настройка серверов, конфиги в терминале и полдня потерянного времени. Потом я поставил Open WebUI. Одна команда — и в браузере открылся интерфейс, неотличимый от ChatGPT. Только работает на моём компьютере, без интернета и без чужих серверов. Open WebUI — браузерный интерфейс для локальных языковых моделей. Ставится рядом с Ollama, запускается как сайт на `localhost` и даёт знакомое окно чата прямо в браузере. Разговоры хранятся локально в SQLite — никуда не уходят. Для пользователей из России важно: это локальный сервер на вашей машине, не чей-то облачный. Никаких обходных каналов не нужно. Без Ollama Open WebUI не запустится — поставьте её первой и скачайте хотя бы одну модель. Если ещё не сделали — в прошлой статье про Ollama на канале «Бурый» есть полная инструкция. Здесь я её повторять не буду. Дальше выбираете способ установки: Сам интерфейс потребляет немного: 1 GB RAM, 10 GB на диске. Но это без учёта моделей. Llama 3.1 7B добавит ещё
Оглавление
   В этом тексте я расскажу, как поставить Open WebUI — локальный аналог ChatGPT, который работает без интернета и без обходных каналов.
В этом тексте я расскажу, как поставить Open WebUI — локальный аналог ChatGPT, который работает без интернета и без обходных каналов.

Я был уверен, что локальная нейросеть — это настройка серверов, конфиги в терминале и полдня потерянного времени. Потом я поставил Open WebUI. Одна команда — и в браузере открылся интерфейс, неотличимый от ChatGPT. Только работает на моём компьютере, без интернета и без чужих серверов.

Open WebUI — браузерный интерфейс для локальных языковых моделей. Ставится рядом с Ollama, запускается как сайт на `localhost` и даёт знакомое окно чата прямо в браузере. Разговоры хранятся локально в SQLite — никуда не уходят. Для пользователей из России важно: это локальный сервер на вашей машине, не чей-то облачный. Никаких обходных каналов не нужно.

Что нужно перед установкой

Без Ollama Open WebUI не запустится — поставьте её первой и скачайте хотя бы одну модель.

Если ещё не сделали — в прошлой статье про Ollama на канале «Бурый» есть полная инструкция. Здесь я её повторять не буду.

Дальше выбираете способ установки:

  • Через pip — нужен Python 3.11 (именно 3.11, не 3.12 и не 3.10)
  • Через Docker — нужен Docker Desktop

Сам интерфейс потребляет немного: 1 GB RAM, 10 GB на диске. Но это без учёта моделей. Llama 3.1 7B добавит ещё 5 GB и требует минимум 8 GB оперативной памяти. На машине с 16 GB работает комфортно.

💡 Совет. Если не знаете, что выбрать — берите Docker. Он изолирует окружение и не конфликтует с другими пакетами Python.

Три способа установки

Каждый вариант — одна команда в терминале, не больше.

Способ 1: через pip

```bash pip install open-webui open-webui serve ```

Интерфейс откроется на `http://localhost:8080`. Плюс: не нужен Docker. Минус: может конфликтовать с другими пакетами — лучше запускать в виртуальном окружении.

Способ 2: через Docker — рекомендую

```bash docker run -d -p 3000:8080 \ --add-host=host.docker.internal:host-gateway \ -v open-webui:/app/backend/data \ --name open-webui \ --restart always \ ghcr.io/open-webui/open-webui:main ```

Адрес: `http://localhost:3000`. Флаг `-v open-webui:/app/backend/data` обязателен — без него история чатов исчезнет при перезапуске контейнера.

Способ 3: Open WebUI и Ollama в одном контейнере

```bash docker run -d -p 3000:8080 \ -v ollama:/root/.ollama \ -v open-webui:/app/backend/data \ --name open-webui \ --restart always \ ghcr.io/open-webui/open-webui:ollama ```

Подходит тем, кто хочет обойтись без отдельной установки Ollama. Всё скачивается и запускается вместе.

   Open WebUI: генерация изображений встроена в интерфейс чата — работает с DALL-E или локально через ComfyUI. Источник: docs.openwebui.com
Open WebUI: генерация изображений встроена в интерфейс чата — работает с DALL-E или локально через ComfyUI. Источник: docs.openwebui.com

Первый запуск и настройка

Открываете браузер, вводите адрес — и попадаете в знакомый интерфейс чата.

Первый зарегистрированный пользователь автоматически получает права администратора. Дальше — выбираете модель из выпадающего списка: там всё, что уже скачано через Ollama. Начинаете диалог — готово.

Несколько настроек, которые стоит задать сразу:

  • Язык интерфейса — русский доступен, Settings → General
  • Тема — тёмная или светлая, там же
  • Параллельный чат с двумя моделями — можно запустить и сравнить ответы бок о бок

💡 Совет. Чтобы Open WebUI запускался автоматически — используйте команду из способа 2 целиком, флаг `--restart always` уже включён.

Скрытые возможности — что умеет сверх чата

Open WebUI — не просто красивая обёртка над Ollama. За интерфейсом чата скрывается несколько полезных функций.

Работа с документами (RAG). Загружаете PDF, DOCX или TXT в чат командой `#` — модель читает файл и отвечает по содержанию. Для простых запросов работает хорошо. Для сложных документов с таблицами и нестандартной разметкой результат нестабильнее.

Голосовой ввод. Whisper Small регулярно ошибается в именах и терминах — нужен Whisper Medium. Он точнее, но на CPU обрабатывает десять секунд записи за 20–30 секунд. Текст в речь — через внешних провайдеров: нужен API-ключ, за пять минут не настроишь.

Веб-поиск. Подключается к 15+ провайдерам: SearXNG, DuckDuckGo, Brave. Модель может смотреть в интернет при ответе — если хотите это включить.

Генерация изображений. Через ComfyUI или AUTOMATIC1111 локально. На CPU медленно, на NVIDIA GPU — терпимо.

💡 Совет. Для RAG нужна отдельная embedding-модель. Зайдите в Settings → RAG и выберите nomic-embed-text через Ollama — займёт пару минут, зато поиск по документам заработает в разы точнее.

Где спотыкаются при установке

Большинство проблем решаются одной командой или одним флагом.

Docker не видит Ollama — «Connection refused». Самая частая проблема. Контейнер не может достучаться до `localhost` хост-машины. Решение: флаг `--add-host=host.docker.internal:host-gateway` уже включён в команду из способа 2 — проверьте, что скопировали полностью, без переносов.

Модели не появляются в списке. Ollama запущена, но модель не скачана. В терминале: `ollama pull llama3.1` — затем обновить страницу.

Всё работает очень медленно. Если нет видеокарты NVIDIA — это норма для больших моделей. Llama 3.1 7B на CPU выдаёт 3–5 токенов в секунду. Возьмите модель поменьше: Phi-3 Mini или Gemma 2 2B работают заметно шустрее.

   Open WebUI в режиме сравнения моделей — два ответа бок о бок для оценки качества. Источник: docs.openwebui.com
Open WebUI в режиме сравнения моделей — два ответа бок о бок для оценки качества. Источник: docs.openwebui.com

Когда Open WebUI лучше ChatGPT — честный ответ

Open WebUI выигрывает в трёх случаях.

Конфиденциальность. Юридические, медицинские или корпоративные документы нельзя отправлять на чужие серверы. Здесь локальная нейросеть без альтернатив: данные не покидают компьютер.

Доступ без обходного канала. ChatGPT и Claude из России доступны только через обходной канал. Open WebUI устанавливается локально — никаких ограничений.

Без лимитов. ChatGPT бесплатно даёт 10–20 запросов в час. Open WebUI — сколько угодно, пока справляется компьютер.

-4

Честный вывод: Open WebUI с Ollama — не замена ChatGPT. Это альтернатива с другим набором компромиссов. Нужна конфиденциальность или надоело искать обходные пути — ставьте. Нужен максимум качества — ChatGPT через обходной канал всё ещё впереди.

👉 Подпишитесь на этот канал, чтобы получать актуальную информацию о полезных бесплатных нейросетях!