Найти в Дзене
Радар ИИ

Китайский прорыв в ИИ

Новинка из Китая, модель DeepSeek R1, ломает стереотипы о дорогостоящих языковых моделях. И попутно роняет капитализацию Nvidia на 600 миллиардов долларов за сутки. На её обучение ушло чуть больше 5 млн долларов (это правда очень мало для моделей такого уровня), при этом – она остается такой же "умной" как и GPT от Open AI. Без собственных фишечек не обошлось – функция Mixture of Experts задействует только необходимые экспертные модули, уменьшая общую нагрузку. Это похоже на команду специалистов разных областей, которые включаются в работу именно тогда, когда их знания востребованы. Эффективно и экономично. Протестировать можно без VPN на сайте, или скачав удобное приложение. Мы активно пользуемся этим решением. Конечно есть к чему придраться и что доработать, но с линейными задачами справляется отлично.

Новинка из Китая, модель DeepSeek R1, ломает стереотипы о дорогостоящих языковых моделях. И попутно роняет капитализацию Nvidia на 600 миллиардов долларов за сутки.

На её обучение ушло чуть больше 5 млн долларов (это правда очень мало для моделей такого уровня), при этом – она остается такой же "умной" как и GPT от Open AI.

Без собственных фишечек не обошлось – функция Mixture of Experts задействует только необходимые экспертные модули, уменьшая общую нагрузку. Это похоже на команду специалистов разных областей, которые включаются в работу именно тогда, когда их знания востребованы. Эффективно и экономично.

Протестировать можно без VPN на сайте, или скачав удобное приложение.

Мы активно пользуемся этим решением. Конечно есть к чему придраться и что доработать, но с линейными задачами справляется отлично.