10,2 тыс подписчиков
🦙 Focused Transformer: Contrastive Training for Context Scaling
LongLLaMA, a large language model capable of handling long contexts of 256k tokens or even more.
LongLLaMA - это большая языковая модель, способная обрабатывать очень длинные тексты (размером 256k токенов и даже больше). Модель основана на OpenLLaMA и доработана с помощью метода фокусированного преобразования (FoT).
📕 Paper: https://arxiv.org/abs/2307.03170v1
🖥 Colab: https://colab.research.google.com/github/CStanKonrad/long_llama/blob/main/long_llama_colab.ipynb
🔗 Dataset: https://paperswithcode.com/dataset/pg-19
Около минуты
7 июля 2023