Вот и конкуренция гемме 4 от китайцев (обратите внимание что в конце поста есть ссылки на версии без цензуры) отрытая модель на 35B параметров и 3B активных в инференсе. Модель делает уклон на кодинг и длинный контекст Конкретно усилили в ней agentic coding и thinking preservation (возможность сохранять контекст рассуждений из предыдущих сообщений) По цифрам модель выглядит тоже убедительно, на бенчмарках она без шансов обошла Gemma 4 31B/35B A3A Еще бонусом она мультимодалка, работает с визуальным входом и причем показала хорошие результаты в multimodal reasoning и spatial intelligence Можно запускать через vLLM, SGLang, KTransformers и Hugging Face Transformers, нативный контекст 262,144 токена с возможностью расширения до 1,010,000 токенов Для модели с 3В активных токенов вполне не плохо, кому то может даже подойдет в продакшен Qwen Studio Hugging Face Кванты - тут уже есть uncensored версии Дообученные - тут тоже