llmfit — это инструмент для выбора подходящих по ресурсам локальных моделей ИИ, который интегрируется с OpenClaw и помогает автоматически настраивать среды выполнения, такие как Ollama, на основе характеристик оборудования. Он анализирует доступную память (VRAM, системную RAM), архитектуру GPU и предлагает оптимальные модели, учитывая их реальные требования к памяти, особенно для архитектуры Mixtral и других MoE-моделей. Поддерживает macOS, Linux, Windows и различные GPU (NVIDIA, AMD, Intel, Apple Silicon) обеспечивая точные оценки вместо приблизительных. Работает без необходимости запуска моделей — только на основе спецификаций системы. 🏷️ ai-agents, ai-native, ai-workflow 🔗 GitHub