Найти тему

Крупнейшая общедоступная LLM опубликована на Hugging Face


Falcon 180B — большая языковая модель со 180 миллиардами параметров, обученная на 3,5 триллионах токенов. Она была разработана в Институте технологических инноваций Абу-Даби.

Модель справляется с задачами на естественном языке и по производительности конкурирует с LLaMA 2 и PaLM 2.



@aioftheday — новости вокруг искусственного интеллекта
Около минуты