Нашел интересную программу, думаю кому то будет полезно, анализирует ваше железо и находит оптимальную ллмку Анализирует ваши (GPU, CPU, RAM). Оценивает 200+ моделей по 4 критериям: качество, скорость, совместимость, контекст Выдаёт готовые команды для установки лучших моделей, интегрируется с Claude через MCP Пошаговая инструкция (просто в cmd вставляем) 1) Установка npm install -g llm-checker 2) Определение железа llm-checker hw-detect 3) Рекомендации по категориям llm-checker recommend --category coding 4) Автоматический запуск модели llm-checker ai-run --category coding --prompt "Write a hello world in Python" Если хотите воспользоваться и автоматическим запуском модели нужно будет скачать ollama, в любом случае при возникновении ошибок каких то, или если не будет каких то компонентов вам дадут команды для установок и фикса GitHub npm Package Документация