Разработка локального пайплайна Retrieval-Augmented Generation (RAG) стала проще благодаря новым решениям, которые позволяют избежать зависимостей от облачных сервисов и API-ключей. В этой статье мы рассмотрим, как собрать полностью локальный RAG-пайплайн, используя Ollama для работы с LLM и PostgreSQL с pgvector для хранения данных. Традиционно многие учебные пособия по RAG связывают процесс с использованием API OpenAI и таких сервисов, как Pinecone, что часто приводит к дополнительным затратам, так как каждая транзакция оплачивается по токенам, и ваши данные покидают локальную среду. Использование локального решения позволяет не только снизить затраты, но и предоставить полный контроль над данными. Для создания локального RAG-пайплайна вам понадобится: Не забывайте выделить около 4 ГБ оперативной памяти для гладкой работы пайплайна. Запросы обрабатываются автоматически через новую функцию, которая берет требуемый текст и возвращает наиболее подходящие фрагменты из загруженных докумен
Создайте локальный RAG-пайплайн с Ollama и pgvector без API
18 марта18 мар
1 мин