Perplexity представила два новых открытых текстовых эмбеддинговых модуля, которые, по заявлению компании, сопоставимы или лучше решений Google и Alibaba, при этом требуют в несколько раз меньше памяти. Оба модуля распространяются под лицензией MIT. Перед тем как языковая модель отвечает на запрос, система должна найти релевантные документы среди миллиардов веб-страниц. Эту первую стадию отбора выполняют эмбеддинги: они переводят запросы и документы в числовые векторы, чтобы можно было вычислять смысловую близость. От качества этих векторов напрямую зависит, какие документы попадут к ранжирующим моделям и далее к языковой модели. Perplexity выпустила два варианта: pplx-embed-v1 и pplx-embed-context-v1.… Подробнее
Perplexity представила компактные открытые эмбеддинги
28 февраля28 фев
~1 мин