Найти в Дзене
Цифровая Переплавка

🔍 rerank-2.5: умный ранжировщик, который понимает инструкции

Поисковые системы и RAG-сервисы часто упираются в одну проблему: алгоритм находит подходящие документы, но не умеет учитывать нюансы запроса. Voyage AI решила это в новых моделях rerank-2.5 и rerank-2.5-lite, которые не только точнее конкурентов, но и поддерживают instruction-following — умение перестраивать релевантность на лету по текстовым инструкциям. Вместо фиксированного определения релевантности модель принимает динамические правила.
Примеры: По сути, это превращает reranker в настраиваемый фильтр второго этапа поиска, где можно явно задавать приоритеты. В типичном пайплайне поиска или RAG: Новые модели Voyage: Rerank-2.5 — шаг к тому, чтобы поиск стал контекстно-чувствительным без костылей. Возможность встраивать инструкции в запросы особенно полезна для RAG-систем, юридических и медицинских поисковиков, где «релевантно» ≠ «похоже по словам». Интересно, что Voyage пошла не в сторону «мега-LLM», а в сторону узкоспециализированных, но очень сильных модулей второго этапа поиска. Е
Оглавление
Иллюстрация с двумя карточками, символизирующими модели rerank-2.5 и rerank-2.5-lite, с перечнем результатов поиска и стрелками вверх, отражающими улучшение релевантности благодаря следованию инструкциям.
Иллюстрация с двумя карточками, символизирующими модели rerank-2.5 и rerank-2.5-lite, с перечнем результатов поиска и стрелками вверх, отражающими улучшение релевантности благодаря следованию инструкциям.

Поисковые системы и RAG-сервисы часто упираются в одну проблему: алгоритм находит подходящие документы, но не умеет учитывать нюансы запроса. Voyage AI решила это в новых моделях rerank-2.5 и rerank-2.5-lite, которые не только точнее конкурентов, но и поддерживают instruction-following — умение перестраивать релевантность на лету по текстовым инструкциям.

⚙️ Что нового в версии 2.5

  • 📏 32 K токенов контекста — в 8 раз больше, чем у Cohere Rerank v3.5, и в 2 раза больше, чем у rerank-2. Это позволяет переупорядочивать длинные документы без обрезки.
  • 🗣 Instruction-following — можно дописать к запросу естественным языком условия, что считать «релевантным».
  • 📈 Рост точности — до +12,7 % на бенчмарке MAIR и +8–11 % в реальных приложениях при использовании инструкций.
  • Версия lite — оптимизирована по задержке, но всё равно обходит Cohere Rerank v3.5 и Qwen3-Reranker-8B.

🧠 Как работает instruction-following

Вместо фиксированного определения релевантности модель принимает динамические правила.
Примеры:

  • 🎯 «Приоритизируй заголовки, игнорируй аннотации» — для академического поиска.
  • 📜 «Отбирать нормативные акты, а не судебные решения» — для юристов.
  • 🚗 «Это e-commerce про автомобили» — чтобы слово Jaguar не спутали с животным.

По сути, это превращает reranker в настраиваемый фильтр второго этапа поиска, где можно явно задавать приоритеты.

📊 Почему это важно

В типичном пайплайне поиска или RAG:

  1. Первичный поиск (BM25, векторные эмбеддинги) подбирает до 100 кандидатов.
  2. Reranker перестраивает список, учитывая сложный контекст.

Новые модели Voyage:

  • 🧮 лучше обрабатывают мультиязычные и длинные документы;
  • 🛠 не требуют переписывать первый этап поиска;
  • 💰 держат цену на уровне прошлых версий, но дают прирост точности.

💡 Моё мнение

Rerank-2.5 — шаг к тому, чтобы поиск стал контекстно-чувствительным без костылей. Возможность встраивать инструкции в запросы особенно полезна для RAG-систем, юридических и медицинских поисковиков, где «релевантно» ≠ «похоже по словам».

Интересно, что Voyage пошла не в сторону «мега-LLM», а в сторону узкоспециализированных, но очень сильных модулей второго этапа поиска. Если такие модули интегрировать напрямую в векторные БД (Weaviate, Milvus) или в цепочки LangChain, можно получить значимый прирост качества без роста латентности.

🔗 Источники: