Для того чтобы научить небольшую модель соображать так же хорошо, как большая, разработчики решили настроить базовую Llama 2 при помощи специальным образом собранного набора данных.Хайтек+
В среднем по результатам всех тестов Orca 2 превзошла Llama-2-Chat с 13 и 70 млрд параметров, а также WizardLM с 13 и 70 млрд параметров.Хайтек+
Только в задачах на математику WizardLM с 70 млрд параметров оказался значимо лучше.Хайтек+
Alibaba, китайский гигант в области облачных вычислений и электронной коммерции, представила в начале месяца Tongyi Qianwen 2.0 — языковую модель следующего поколения с сотнями миллиардов параметров.Хайтек+