Обновили свои продвинутые reasoning модели, на базе gemini 3 Четыре размера E2B | Eff. 2B | Смартфоны, IoT, Raspberry Pi E4B | Eff. 4B | Мобильные устройства, NVIDIA Jetson 26B MoE | 26B (активно 3.8B) | пк, быстрый вывод 31B Dense | 31B | Рабочие станции 31B модель заняла #3 место среди опенсорсов в мире на Arena AI Leaderboard 26B MoE #6 место, при этом превосходя модели в 20 раз крупнее Для агентов, кодинга и размышлений стоит попробовать, контекст до 128K токенов для edge-моделей и до 256K для больших моделей Запускать можно уже через vLLM, llama.cpp, MLX, LM Studio, Unsloth, NVIDIA NIM, Docker На Android можно начать тестить через AICore Developer Preview, получая совместимость с Gemini Nano 4 в будущем 🔘Про системные требования инференс (данные только для загрузки весов, без учёта KV-кэша контекста) Сначала про BF16 (16 бит), для моделей E2B/E4B/26B A4B/31B вам понадобится 9,6GB/15GB/48GB/58,3GB соотвественно Для SFP8 (8-бит) надо 4,6/7,5/25/30,4gb также соответственно