Найти тему
10,2 тыс подписчиков

🦙 Focused Transformer: Contrastive Training for Context Scaling


LongLLaMA, a large language model capable of handling long contexts of 256k tokens or even more.

LongLLaMA - это большая языковая модель, способная обрабатывать очень длинные тексты (размером 256k токенов и даже больше). Модель основана на OpenLLaMA и доработана с помощью метода фокусированного преобразования (FoT).





🦙 Focused Transformer: Contrastive Training for Context Scaling  LongLLaMA, a large language model capable of handling long contexts of 256k tokens or even more.
Около минуты