Добавить в корзинуПозвонить
Найти в Дзене
Типичный программист

Учим LLM работать с файлами локально

На Тпрогер вышла пошаговая инструкция о том, как поднять локальную агентную AI‑систему из трёх компонентов: — LibreChat — удобный UI для общения с LLM — MCP‑сервер — стандартный доступ к файлам и инструментам — Langflow — визуальный конструктор для многоступенчатых сценариев (с валидацией и расчётами) Всё работает в изолированной Docker‑сети. Данные никуда не уходят. В статье готовые docker-compose.yml, конфиги librechat.yaml, пример кастомного Python‑компонента для расчётов и таблиц, а также схемы работы каждого этапа. @tproger Читайте также в VK, Max и Дзен

Учим LLM работать с файлами локально

На Тпрогер вышла пошаговая инструкция о том, как поднять локальную агентную AI‑систему из трёх компонентов:

— LibreChat — удобный UI для общения с LLM

— MCP‑сервер — стандартный доступ к файлам и инструментам

— Langflow — визуальный конструктор для многоступенчатых сценариев (с валидацией и расчётами)

Всё работает в изолированной Docker‑сети. Данные никуда не уходят.

В статье готовые docker-compose.yml, конфиги librechat.yaml, пример кастомного Python‑компонента для расчётов и таблиц, а также схемы работы каждого этапа.

@tproger

Читайте также в VK, Max и Дзен