Долгое время использовал в OpenClaw модель Qwen 2.5 (14B). Казалось бы — 14 миллиардов параметров должны выдавать мощный интеллект. Но на практике (на моих 18 Гб памяти) я получил что-то очень мощное, но медленное. В чем была проблема? Веса 14B-модели занимают почти всю свободную оперативку. Памяти под контекст не остается. Mac начинает свопить память на диск и скорость ужасная. Работать невозможно. Что получается с Gemma 4 (2B)? Эта крошка на ~2.3 млрд параметров — продукт 2026 года. Она спроектирована иначе: 🔹Реактивная скорость: Вместо 9 Гб весов она занимает всего 2 Гб. Вся остальная память (а это честные 11-12 Гб) уходит под контекст. 🔹Долгая память: Теперь я могу закидывать в OpenClaw длинные технические отчеты или логи NGFW, и модель не начинает «тупить» через три сообщения. 🔹Эффективность: Современные алгоритмы позволяют этой малютке соображать не хуже старых тяжеловесов. Итог: Я пересел с перегруженного грузовика на спортивный байк — до цели долетаешь в пять раз быст