Добавить в корзинуПозвонить
Найти в Дзене
Kineiro

Как ВТБ разгрузил 12 тысяч сотрудников через RAG и LLM

🧑‍💼 ВТБ внедрил внутреннего чат-бота на базе генеративного ИИ: поиск по базе знаний (RAG) и большие языковые модели помогают сотрудникам отделений быстро получать точные ответы по продуктам и процедурам. Проект уже закрывает большую часть типовых запросов и масштабируется на сеть отделений по стране. С ростом линейки банковских продуктов и регуляторных требований нагрузка на фронт-офис стремительно увеличивается. Поиск актуальной версии инструкции в разрозненных документах отнимает минуты, а в очереди — это критично. Новый ассистент ВТБ переводит эту работу в формат «вопрос — ответ», снижая время обслуживания и риск ошибок. Ассистент работает по гибридной схеме. Сначала модуль RAG находит релевантные фрагменты в корпоративной базе знаний (регламенты, описания продуктов, памятки). Затем большая языковая модель формирует связный ответ со ссылкой на найденные материалы. В отличие от сценарных ботов, система понимает «живые» формулировки и уточняет контекст запроса, что повышает точность
Оглавление

🧑‍💼 ВТБ внедрил внутреннего чат-бота на базе генеративного ИИ: поиск по базе знаний (RAG) и большие языковые модели помогают сотрудникам отделений быстро получать точные ответы по продуктам и процедурам. Проект уже закрывает большую часть типовых запросов и масштабируется на сеть отделений по стране.

Контекст и задача

С ростом линейки банковских продуктов и регуляторных требований нагрузка на фронт-офис стремительно увеличивается. Поиск актуальной версии инструкции в разрозненных документах отнимает минуты, а в очереди — это критично. Новый ассистент ВТБ переводит эту работу в формат «вопрос — ответ», снижая время обслуживания и риск ошибок.

Технологическая архитектура: RAG + LLM

Ассистент работает по гибридной схеме. Сначала модуль RAG находит релевантные фрагменты в корпоративной базе знаний (регламенты, описания продуктов, памятки). Затем большая языковая модель формирует связный ответ со ссылкой на найденные материалы. В отличие от сценарных ботов, система понимает «живые» формулировки и уточняет контекст запроса, что повышает точность.

Бизнес-эффект и метрики

Более 90% обращений теперь обрабатываются автоматически — методологи подключаются только к нестандартным случаям. Это ускоряет обслуживание, выравнивает формулировки ответов по всей сети и сокращает вероятность ошибки. Экономический эффект дополняется управленческим: появляется прозрачная статистика по темам вопросов, времени реакции и качеству базы знаний.

Масштаб внедрения

До конца 2025 года доступ к ассистенту получат свыше 12 тысяч сотрудников в 1,8 тысячи отделений по России. Проект входит в экосистему цифровых помощников «Сфера», где уже работают решения для техподдержки и ИТ-подразделений. Единые принципы дизайна и интеграций упрощают онбординг и сопровождение.

Следующий шаг: гиперперсонализация

Планируется расширить логику ответов за счёт данных профиля клиента (возраст, активные продукты, история обслуживания). Это позволит предлагать релевантные разъяснения и сокращать число уточняющих вопросов у стойки. Для внедрения предусмотрены механизмы контроля качества данных и соблюдения внутренней политики конфиденциальности.

Контекст рынка и примеры применения

Российские банки активно масштабируют ИИ-ассистентов: внешние боты снижают нагрузку на контакт-центры, внутренние — ускоряют работу фронт-офиса. Параллельно бизнесу требуется регулярная коммуникация с клиентами в соцсетях. Здесь помогает Kineiro.ru: платформа автоматически готовит тексты и визуалы для восьми площадок, подстраивая подачу под каждую аудиторию и снимая ручную рутину с команды.

Финальный вопрос

Как вы оцениваете баланс между скоростью обслуживания и глубиной персонализации в отделении: какие сценарии стоит автоматизировать в первую очередь, чтобы клиенты почувствовали разницу уже в этом квартале?