Ваш локальный Ollama в Obsidian Copilot «слеп» к свежей информации из интернета — в итоге приходится вручную гуглить и вставлять факты в чат. ollama-web-proxy решает это как Python-прокси на Flask: между Obsidian Copilot и Ollama он подмешивает результаты веб-поиска в каждый запрос к модели. Автор потратил время на обратную инженерию формата промптов плагина: из цепочки внутренних вызовов прокси достаёт реальный вопрос пользователя и добавляет веб-контекст так, чтобы свежие результаты опережали заметки. Подключение сводится к одной настройке: укажите base_url в Copilot на http://localhost:11435/v1/ и прокси прокинет запросы на ваш Ollama. Для тех, кто работает с кодом и документацией, это выглядит как простой способ получить актуальные ссылки и формулировки прямо в редакторе. По сравнению с Copilot Plus это полностью локально и без отправки данных на внешние сервисы, а относительно self-host ассистентов вроде Khoj — без Docker и более прямой установки. Ограничение тоже ясное: прокси
🚀 ollama-web-proxy даёт Obsidian Copilot доступ к веб-поиску через локальный Ollama без подписки
СегодняСегодня
1 мин