На Тпрогер вышла пошаговая инструкция о том, как поднять локальную агентную AI‑систему из трёх компонентов: — LibreChat — удобный UI для общения с LLM — MCP‑сервер — стандартный доступ к файлам и инструментам — Langflow — визуальный конструктор для многоступенчатых сценариев (с валидацией и расчётами) Всё работает в изолированной Docker‑сети. Данные никуда не уходят. В статье готовые docker-compose.yml, конфиги librechat.yaml, пример кастомного Python‑компонента для расчётов и таблиц, а также схемы работы каждого этапа. @tproger Читайте также в VK, Max и Дзен