Теперь можно развернуть ПОЛНОЦЕННЫЙ интерфейс уровня ChatGPT на своём железе за пару минут. Open WebUI стал золотым стандартом для тех, кто не хочет зависеть от облаков: он объединяет управление локальными моделями через Ollama и внешними API (OpenAI, Anthropic) в одном месте. Проект выделяется встроенной поддержкой RAG (Retrieval-Augmented Generation — подгрузка знаний из ваших документов в контекст модели). Вы просто перетаскиваете PDF или текстовый файл в чат, и нейронка начинает отвечать, опираясь на эти данные. Также есть поддержка MCP (Model Context Protocol — стандарт для подключения инструментов к LLM), что позволяет модели ходить в интернет или выполнять код. Запуск одной командой через Docker: docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main. В отличие от минималистичных альтернатив вроде Jan или LM Studio, здесь есть полноценная многопользовательская система с ролями
🚀 Open WebUI — стандарт де-факто для локального ChatGPT с поддержкой Ollama и RAG
18 марта18 мар
1 мин