Корпоративный поиск сегодня выглядит как шутка: десятки систем, тысячи документов, а ответ на простой вопрос «как оформить командировку» всё равно приходится добывать через звонок знакомому в бухгалтерии.
Классический RAG уже улучшил ситуацию, но быстро упёрся в потолок: он умеет красиво перефразировать найденные куски текста, но не мыслить, не планировать и не действовать как сотрудник. Эту дыру закрывает Agentic RAG — связка RAG и агентного подхода, где ИИ не просто ищет, а **ставит себе подзадачи, зовёт инструменты и проверяет себя**.
По сути, это переход от «умного поиска» к цифровому коллеге, который понимает контекст бизнеса и умеет доводить запрос до результата, а не до абстрактного ответа.
🤖 1. Что такое Agentic RAG простыми словами
RAG (Retrieval-Augmented Generation) — это когда LLM не фантазирует «из головы», а подтягивает факты из вашей базы документов. Agentic RAG добавляет к этому ещё один слой — **агентов**, которые:
1. Понимают намерение пользователя.
2. Планируют цепочку шагов.
3. Выбирают нужные инструменты (поиск, БД, API).
4. Проверяют себя и доуточняют запросы.
Формула выглядит так:
— Было: Вопрос → Поиск по эмбеддингам → LLM отвечает.
— Стало: Вопрос → Агент-планировщик → Цепочка действий (поиск, фильтрация, расчёты, запросы в CRM/ERP) → Проверка → Ответ в формате, удобном бизнесу.
Ключевое отличие: система перестаёт быть «ещё одной строкой поиска» и начинает вести себя как **джуниор-аналитик**, который сам решает, где взять данные и как их собрать в понятный отчёт.
🔥 2. Почему классический RAG не вытягивает корпоративный уровень
На пилотах RAG почти всегда «стреляет»: первые демо вау, первые ответы точные. Через 2–3 месяца начинаются жалобы:
1.1. «Он не понимает, как у нас устроен бизнес»
Проблема: RAG ищет по тексту, а не по процессам.
— Он не различает важность документов (регламент vs комментарий в Confluence).
— Он не понимает ролевую модель (что можно показывать стажёру, а что — только руководителю).
— Он не видит сквозные бизнес-сущности (клиент, заказ, проект) между системами.
1.2. «Он даёт красивый, но бесполезный ответ»
— Нет действий: не создаёт задачу, не обновляет тикет, не считает деньги.
— Нет проверки: любая ошибка в извлечённом куске превращается в уверенный, но ложный ответ.
— Нет многошаговости: сложные вопросы с несколькими источниками он разваливает.
1.3. «Он не учится на нашем фидбэке»
— Пользователи ставят лайк/дизлайк, но система не меняет стратегию поиска.
— Нет активного сбора контекста: если в запросе не хватило деталей, RAG не переспрашивает, а додумывает.
Agentic RAG решает эти три блока за счёт планирования, инструментов и циклов само-проверки. Не улучшает «поиск», а меняет **модель взаимодействия с ИИ**.
⚙️ 3. Из чего состоит Agentic RAG: архитектура по слоям
Архетип: аналитика/обзор с элементами сравнения. Ниже — базовая минимальная архитектура Agentic RAG для корпорации.
3.1. Слой понимания намерения (Intent & persona)
— Классификация типа запроса: справка, инструкция, расчёт, анализ, генерация документа, действие в системе.
— Учёт роли пользователя: продавец, бухгалтер, руководитель, техподдержка.
— Определение критичности: можно ли ответить «примерно» или нужна 100% точность и ссылки на нормативку.
Результат — структурированный intent:
— goal: что пользователь реально хочет получить;
— constraints: сроки, форматы, системы, права доступа;
— KPIs: что считается «хорошим ответом» (кратко, с таблицей, со списком рисков).
3.2. Агент-планировщик (Planner)
Задача — расписать сложный запрос на цепочку действий:
— Какие источники нужны: база знаний, регламенты, CRM, тикетница, BI.
— В каком порядке к ним ходить.
— Когда нужно уточнить вопрос у пользователя.
Примеры планов:
— «Собери регламент → проверь актуальность версии → сравни с прошлой → сформируй изменения для рассылки».
— «Найди заказы клиента → посчитай LTV → вытащи SLA по сегменту → сформируй рекомендации по скидке».
3.3. Набор специализированных агентов-инструментов
Это не один «супербот», а оркестр:
— Retrieval-агент: умный поиск по документам (векторный + фильтры + приоритезация источников).
— Structured data-агент: запросы в CRM/ERP/БД (SQL/GraphQL/API).
— Policy-агент: проверка на нормативы, риски, комплаенс.
— Action-агент: создание задач, тикетов, изменений в системах.
Каждый агент — это:
— доступ к одному типу источников;
— свой prompt/правила;
— свои метрики качества (precision, latency, coverage).
3.4. Слой верификации и self-consistency
Agentic RAG не доверяет себе с первого раза:
— прогоняет несколько параллельных поисковых стратегий;
— сравнивает ответы и ищет противоречия;
— при расхождениях — запрашивает доп. контекст или зовёт policy-агента.
Пример поведения:
— Если регламент 2021 и 2024 годов дают разные нормы суточных — агент явно отмечает конфликт и ссылается на обоих, предлагая «безопасный» вариант и пометку для юристов.
3.5. Слой представления результата (UX уровня «сотрудник»)
Ответы Agentic RAG выглядят не как чат, а как рабочие артефакты:
— резюме + ссылки на источники;
— таблицы с расчётами;
— чек-листы по шагам;
— готовые письма, заявки, тикеты.
Чем ближе ответ к формату «то, что сотрудник реально отнесёт начальнику», тем выше adoption и доверие.
📊 4. Где Agentic RAG уже даёт деньги: типовые кейсы
4.1. Поддержка и сервис (L1.5 вместо L1)
Задача: разгрузить первую линию и сократить время реакции.
Как работает Agentic RAG:
— понимает тип обращения (инцидент, вопрос, запрос на изменение);
— сам ищет по базе инцидентов, FAQ, регламентам;
— если нужно — сам доформулирует запрос для поиска логов или метрик;
— формирует черновик ответа + действие: создать тикет второй линии, поменять статус, запросить лог у системы.
Метрики, которые видят компании:
— до 40–60% обращений закрываются без человека (при узкой предметной области);
— время до первого ответа падает в 3–5 раз;
— база знаний начинает реально использоваться, а не просто пополняться.
4.2. Продажи и аккаунтинг (цифровой pre-sales)
Типичный запрос менеджера:
— «Что я могу предложить этому клиенту с учётом его истории, лимитов и текущих акций?»
Agentic RAG:
— вытаскивает историю сделок,
— смотрит просрочки, выручку, маржу по клиенту,
— сверяет с действующими прайсами и акциями,
— учитывает отраслевые ограничения и политик риска,
— выдаёт:
— 3–5 готовых сценариев предложения,
— риски (комплаенс, кредитный, юридический),
— черновик письма или КП.
Это экономит часы работы аккаунта и аналитика на каждое крупное предложение.
4.3. Внутренний консалтинг и обучение
Запросы формата:
— «Как в нашей компании согласовать маркетинговую акцию на 10 млн?»
— «Какие шаги мне нужно пройти, чтобы перевести сотрудника в другой регион?»
Agentic RAG строит **персональный маршрут**:
— конкретные шаги,
— формы и системы, куда зайти,
— шаблоны писем,
— сроки и типичные ошибки.
По факту это внутренняя «консалтинг-фирма» на базе ваших же регламентов и практики.