Alibaba Cloud представила QwQ-32B — компактную модель рассуждения, построенную на базе Qwen2.5-32B. По заявлению компании, QwQ-32B показывает производительность, сопоставимую с передовыми моделями, такими как DeepSeek-R1 и o1 от OpenAI, несмотря на то, что имеет всего 32 миллиарда параметров. Alibaba акцентирует внимание на обучении с подкреплением (RL) как ключевом факторе, повышающем способность модели к рассуждению и кодированию. В отличие от DeepSeek-R1, который имеет 671 миллиард параметров (с активными 37 млрд), Alibaba утверждает, что ее модель достигает аналогичных результатов при меньших вычислительных затратах. Источник: https://www.cta.ru/news/cta/181186.html Больше интересного – на медиапортале https://www.cta.ru/
Alibaba утверждает, что ее новая ИИ-модель конкурирует с R-1 от DeepSeek и o1 от OpenAI
10 марта 202510 мар 2025
~1 мин