Alibaba выложила в открытый доступ Qwen3.6-35B-A3B — MoE-модель с 35 миллиардами параметров, из которых активны только 3. При этом по agentic coding она не уступает моделям в 10 раз крупнее. Alibaba выкатила в открытый доступ новую модель из серии Qwen — и цифры в названии тут не для красоты. Qwen3.6-35B-A3B — это sparse MoE-модель (Mixture of Experts, «смесь экспертов»). Внутри 35 миллиардов параметров, но в каждый момент времени работают только 3 миллиарда. Представьте команду из 35 человек, где на каждую задачу выходят трое самых подходящих. Остальные не тратят ресурсы. Что это значит на практике: модель запускается на обычном железе, потребляет мало памяти — но при этом в agentic coding (автономное написание кода по задачам) показывает результаты на уровне моделей, которые в 10 раз крупнее по активным параметрам. Плюс мультимодальность: модель понимает изображения, а не только текст. И два режима мышления — с «размышлением» и без, как уже привычно по o1/o3 от OpenAI. Лицензия — Apa
Qwen3.6-35B-A3B в опенсорсе — 3 миллиарда активных параметров и кодинг на уровне гигантов
16 апреля16 апр
2
1 мин