В мире больших языковых моделей (LLM) — ChatGPT, GPT-4 и им подобных — есть одна ключевая проблема: модели ограничены по объёму информации, которую могут учесть за один раз, и не всегда обладают актуальными знаниями. Именно здесь на сцену выходит Retrieval Augmented Generation (RAG) — приём, позволяющий значительно повысить качество ответов за счёт использования свежих данных из внешних источников. Сегодня разберём, как это работает и почему любой, кто работает с AI, должен о RAG знать. Retrieval Augmented Generation (RAG) — это способ дополнить запрос к LLM релевантной информацией, взятой из внешних источников, например базы данных с текстами, документами или справочниками. Идея проста: перед каждым вызовом модели мы ищем в базе кусочки текста, максимально близкие по смыслу к запросу пользователя, и добавляем эти данные в контекст — так называемый augmented prompt. Благодаря этому LLM получает не просто вопрос, а вопрос с подкреплённой свежей информацией — что значительно улучшае
Retrieval Augmented Generation (RAG): что это и зачем нужно
18 августа 202518 авг 2025
1
3 мин