Добавить в корзинуПозвонить
Найти в Дзене
Neurogen

Qwen3.6-35B-A3B

Вот и конкуренция гемме 4 от китайцев (обратите внимание что в конце поста есть ссылки на версии без цензуры) отрытая модель на 35B параметров и 3B активных в инференсе. Модель делает уклон на кодинг и длинный контекст Конкретно усилили в ней agentic coding и thinking preservation (возможность сохранять контекст рассуждений из предыдущих сообщений) По цифрам модель выглядит тоже убедительно, на бенчмарках она без шансов обошла Gemma 4 31B/35B A3A Еще бонусом она мультимодалка, работает с визуальным входом и причем показала хорошие результаты в multimodal reasoning и spatial intelligence Можно запускать через vLLM, SGLang, KTransformers и Hugging Face Transformers, нативный контекст 262,144 токена с возможностью расширения до 1,010,000 токенов Для модели с 3В активных токенов вполне не плохо, кому то может даже подойдет в продакшен Qwen Studio Hugging Face Кванты - тут уже есть uncensored версии Дообученные - тут тоже

Qwen3.6-35B-A3B

Вот и конкуренция гемме 4 от китайцев (обратите внимание что в конце поста есть ссылки на версии без цензуры)

отрытая модель на 35B параметров и 3B активных в инференсе. Модель делает уклон на кодинг и длинный контекст

Конкретно усилили в ней agentic coding и thinking preservation (возможность сохранять контекст рассуждений из предыдущих сообщений)

По цифрам модель выглядит тоже убедительно, на бенчмарках она без шансов обошла Gemma 4 31B/35B A3A

Еще бонусом она мультимодалка, работает с визуальным входом и причем показала хорошие результаты в multimodal reasoning и spatial intelligence

Можно запускать через vLLM, SGLang, KTransformers и Hugging Face Transformers, нативный контекст 262,144 токена с возможностью расширения до 1,010,000 токенов

Для модели с 3В активных токенов вполне не плохо, кому то может даже подойдет в продакшен

Qwen Studio

Hugging Face

Кванты - тут уже есть uncensored версии

Дообученные - тут тоже