Найти в Дзене
Точка IT

LangFlow: визуальный конструктор AI‑pipeline на базе LangChain

LangFlow — это бесплатный open‑source‑фреймворк, позволяющий собирать и запускать цепочки из больших языковых моделей без единой строки кода. Drag‑&‑drop‑редактор, поддержка Model Context Protocol (MCP) и готовый Docker‑образ делают его идеальным решением для быстрого прототипирования чат‑ботов, RAG‑систем и агентных сервисов. Самый лёгкий способ — установить Python‑виртуальное окружение и выполнить две команды:python -m venv .venv && source .venv/bin/activate pip install langflow
langflow run Команда langflow run поднимает локальный сервер http://localhost:7860, где открывается UI‑редактор.Docker‑контейнер (рекомендовано для продакшн) Установка через docker Если нужен надёжный и масштабируемый сервис, достаточно одного образа: docker pull langflow/langflow:latest
docker run -p 7860:7860 -v $(pwd)/flows:/app/flows langflow/langflow Контейнер уже содержит FastAPI, React‑frontend и все зависимости. При монтировании каталога /app/flows вы получаете постоянное хранилище ваших workflow‑файл
Оглавление
LangFlow
LangFlow

LangFlow — это бесплатный open‑source‑фреймворк, позволяющий собирать и запускать цепочки из больших языковых моделей без единой строки кода. Drag‑&‑drop‑редактор, поддержка Model Context Protocol (MCP) и готовый Docker‑образ делают его идеальным решением для быстрого прототипирования чат‑ботов, RAG‑систем и агентных сервисов.

Установка и первый запуск

Установка через pip

Самый лёгкий способ — установить Python‑виртуальное окружение и выполнить две команды:python -m venv .venv && source .venv/bin/activate

pip install langflow
langflow run

Команда langflow run поднимает локальный сервер http://localhost:7860, где открывается UI‑редактор.Docker‑контейнер (рекомендовано для продакшн)

Установка через docker

Если нужен надёжный и масштабируемый сервис, достаточно одного образа:

docker pull langflow/langflow:latest
docker run -p 7860:7860 -v $(pwd)/flows:/app/flows langflow/langflow

Контейнер уже содержит FastAPI, React‑frontend и все зависимости. При монтировании каталога /app/flows вы получаете постоянное хранилище ваших workflow‑файлов.

Desktop‑версия (Electron)

Для тех, кто не хочет управлять сервером, существует готовый LangFlow Desktop — исполняемый файл (Windows/macOS/Linux). После установки открывается то же самое веб‑окно, но в собственном окне приложения.

Работа с API и Model Context Protocol (MCP)

API‑endpoint

  • POST /api/v1/flows/run - Запуск сохранённого flow и получение ответа.
  • GET /api/v1/flows/{flow_id} - Получить JSON‑описание workflow.
  • POST /api/v1/mcp/execute - Выполнить запрос через Model Context Protocol.

Пример запроса

{
"flow_id": "my_chatbot",
"inputs": { "user_message": "Привет!" }
}

Ответ содержит assistant_message и массив intermediate_steps, что удобно использовать в интерактивных чат‑виджетах.

Что такое MCP?

Model Context Protocol — единый формат обмена контекстом между разными LLM‑агентами. Вместо пересылки полной истории диалога каждый агент получает лишь необходимые «тезисы» (например, текущий заказ пользователя) и возвращает их следующему агенту. В LangFlow MCP реализован как отдельный тип узла MCP Connector, автоматически сериализующий/десериализующий контекст в JSON.

Практический пример: RAG‑чат‑бот с Pinecone

  1. Создаём узлы:PineconeVectorStore — подключаем свой API‑ключ.
    - PromptTemplate — запрос к базе:
    «Найди документы, связанные с запросом: {{question}}».
    - LLM (OpenAI gpt‑4‑turbo) — генерируем ответ.
    - MCP Connector — передаём найденные фрагменты в LLM.
  2. Связываем их стрелками: пользователь → PromptTemplate → VectorStore → MCP → LLM → ChatOutput.
  3. Тестируем в Playground: вводим вопрос «Как оформить возврат в магазине?». Векторный поиск возвращает 3‑4 релевантных фрагмента, LLM генерирует готовый ответ с ссылкой на политику возврата.
  4. Экспортируем flow (Export → JSON) и подключаем к бекенду через /api/v1/flows/run. Любой сайт теперь может задавать вопросы без дополнительного кода.

LangFlow превращает сложные цепочки LLM‑моделей, векторных баз и агентов в набор визуальных блоков, экономя недели разработки и упрощая прототипирование. Установить его можно в три клика (pip, Docker или Desktop), а готовый flow экспортируется в JSON и обслуживается через простой FastAPI‑API. Встроенный API + MCP дают гибкость и масштабируемость, а открытый код обеспечивает полную независимость от конкретных провайдеров LLM.

Попробуйте собрать свой первый RAG‑бот уже сегодня — и убедитесь, что «код без кода» действительно работает.