Я был уверен, что локальная нейросеть — это настройка серверов, конфиги в терминале и полдня потерянного времени. Потом я поставил Open WebUI. Одна команда — и в браузере открылся интерфейс, неотличимый от ChatGPT. Только работает на моём компьютере, без интернета и без чужих серверов.
Open WebUI — браузерный интерфейс для локальных языковых моделей. Ставится рядом с Ollama, запускается как сайт на `localhost` и даёт знакомое окно чата прямо в браузере. Разговоры хранятся локально в SQLite — никуда не уходят. Для пользователей из России важно: это локальный сервер на вашей машине, не чей-то облачный. Никаких обходных каналов не нужно.
Что нужно перед установкой
Без Ollama Open WebUI не запустится — поставьте её первой и скачайте хотя бы одну модель.
Если ещё не сделали — в прошлой статье про Ollama на канале «Бурый» есть полная инструкция. Здесь я её повторять не буду.
Дальше выбираете способ установки:
- Через pip — нужен Python 3.11 (именно 3.11, не 3.12 и не 3.10)
- Через Docker — нужен Docker Desktop
Сам интерфейс потребляет немного: 1 GB RAM, 10 GB на диске. Но это без учёта моделей. Llama 3.1 7B добавит ещё 5 GB и требует минимум 8 GB оперативной памяти. На машине с 16 GB работает комфортно.
💡 Совет. Если не знаете, что выбрать — берите Docker. Он изолирует окружение и не конфликтует с другими пакетами Python.
Три способа установки
Каждый вариант — одна команда в терминале, не больше.
Способ 1: через pip
```bash pip install open-webui open-webui serve ```
Интерфейс откроется на `http://localhost:8080`. Плюс: не нужен Docker. Минус: может конфликтовать с другими пакетами — лучше запускать в виртуальном окружении.
Способ 2: через Docker — рекомендую
```bash docker run -d -p 3000:8080 \ --add-host=host.docker.internal:host-gateway \ -v open-webui:/app/backend/data \ --name open-webui \ --restart always \ ghcr.io/open-webui/open-webui:main ```
Адрес: `http://localhost:3000`. Флаг `-v open-webui:/app/backend/data` обязателен — без него история чатов исчезнет при перезапуске контейнера.
Способ 3: Open WebUI и Ollama в одном контейнере
```bash docker run -d -p 3000:8080 \ -v ollama:/root/.ollama \ -v open-webui:/app/backend/data \ --name open-webui \ --restart always \ ghcr.io/open-webui/open-webui:ollama ```
Подходит тем, кто хочет обойтись без отдельной установки Ollama. Всё скачивается и запускается вместе.
Первый запуск и настройка
Открываете браузер, вводите адрес — и попадаете в знакомый интерфейс чата.
Первый зарегистрированный пользователь автоматически получает права администратора. Дальше — выбираете модель из выпадающего списка: там всё, что уже скачано через Ollama. Начинаете диалог — готово.
Несколько настроек, которые стоит задать сразу:
- Язык интерфейса — русский доступен, Settings → General
- Тема — тёмная или светлая, там же
- Параллельный чат с двумя моделями — можно запустить и сравнить ответы бок о бок
💡 Совет. Чтобы Open WebUI запускался автоматически — используйте команду из способа 2 целиком, флаг `--restart always` уже включён.
Скрытые возможности — что умеет сверх чата
Open WebUI — не просто красивая обёртка над Ollama. За интерфейсом чата скрывается несколько полезных функций.
Работа с документами (RAG). Загружаете PDF, DOCX или TXT в чат командой `#` — модель читает файл и отвечает по содержанию. Для простых запросов работает хорошо. Для сложных документов с таблицами и нестандартной разметкой результат нестабильнее.
Голосовой ввод. Whisper Small регулярно ошибается в именах и терминах — нужен Whisper Medium. Он точнее, но на CPU обрабатывает десять секунд записи за 20–30 секунд. Текст в речь — через внешних провайдеров: нужен API-ключ, за пять минут не настроишь.
Веб-поиск. Подключается к 15+ провайдерам: SearXNG, DuckDuckGo, Brave. Модель может смотреть в интернет при ответе — если хотите это включить.
Генерация изображений. Через ComfyUI или AUTOMATIC1111 локально. На CPU медленно, на NVIDIA GPU — терпимо.
💡 Совет. Для RAG нужна отдельная embedding-модель. Зайдите в Settings → RAG и выберите nomic-embed-text через Ollama — займёт пару минут, зато поиск по документам заработает в разы точнее.
Где спотыкаются при установке
Большинство проблем решаются одной командой или одним флагом.
Docker не видит Ollama — «Connection refused». Самая частая проблема. Контейнер не может достучаться до `localhost` хост-машины. Решение: флаг `--add-host=host.docker.internal:host-gateway` уже включён в команду из способа 2 — проверьте, что скопировали полностью, без переносов.
Модели не появляются в списке. Ollama запущена, но модель не скачана. В терминале: `ollama pull llama3.1` — затем обновить страницу.
Всё работает очень медленно. Если нет видеокарты NVIDIA — это норма для больших моделей. Llama 3.1 7B на CPU выдаёт 3–5 токенов в секунду. Возьмите модель поменьше: Phi-3 Mini или Gemma 2 2B работают заметно шустрее.
Когда Open WebUI лучше ChatGPT — честный ответ
Open WebUI выигрывает в трёх случаях.
Конфиденциальность. Юридические, медицинские или корпоративные документы нельзя отправлять на чужие серверы. Здесь локальная нейросеть без альтернатив: данные не покидают компьютер.
Доступ без обходного канала. ChatGPT и Claude из России доступны только через обходной канал. Open WebUI устанавливается локально — никаких ограничений.
Без лимитов. ChatGPT бесплатно даёт 10–20 запросов в час. Open WebUI — сколько угодно, пока справляется компьютер.
Честный вывод: Open WebUI с Ollama — не замена ChatGPT. Это альтернатива с другим набором компромиссов. Нужна конфиденциальность или надоело искать обходные пути — ставьте. Нужен максимум качества — ChatGPT через обходной канал всё ещё впереди.
👉 Подпишитесь на этот канал, чтобы получать актуальную информацию о полезных бесплатных нейросетях!