Найти в Дзене
Машинное обучение

Крышесносная модель Gemma 2B с длиной контекста 10M, которая анализирует до 7 млн слов.

В нее можно закидывать огромные документы и модель всё проанализирует.

Производительность выше Gemini в 10 раз, а памяти нужно всего 32 ГБ.

Github: https://github.com/mustafaaljadery/gemma-2B-10M

HF: https://huggingface.co/mustafaaljadery/gemma-2B-10M

Technical Overview: https://medium.com/@akshgarg_36829/gemma-10m-technical-overview-900adc4fbeeb