Найти тему
380 подписчиков

Новая модель от Mistral

Mixtral 8x22B-v01 в открытом доступе. Нейронка состоит из 8 экспертов, для анализа в нее можно загружать документы и небольшие книги. Контекстное окно на 64К токенов.

Нейросеть разбирается в математике, поддерживает русским языком (хоть и не официально) цензура отсутствует! (upd. Увы, все таки есть, хоть и не столь лютая какая у ряда лёгких llm)

Тестировать тут. (cсылка обновлена)
Почитать тут.

Работает из России.
Около минуты