Крупнейшая общедоступная LLM опубликована на Hugging Face
Falcon 180B — большая языковая модель со 180 миллиардами параметров, обученная на 3,5 триллионах токенов. Она была разработана в Институте технологических инноваций Абу-Даби.
Модель справляется с задачами на естественном языке и по производительности конкурирует с LLaMA 2 и PaLM 2.
—
@aioftheday — новости вокруг искусственного интеллекта
Около минуты
6 сентября 2023