Обучение больших языковых моделей традиционно считалось задачей для исследовательских лабораторий с армией инженеров и доступом к суперкомпьютерам. Но проект LLaMA-Factory меняет правила игры: теперь дообучить LLaMA, Mistral, Qwen, DeepSeek или даже GPT-OSS можно буквально через командную строку или удобный web-интерфейс. LLaMA-Factory — это универсальный инструмент для fine-tuning и reinforcement learning, который: 🔗 Поддерживает 100+ моделей (от LLaMA 3 до Qwen 3 и Gemma 3) с обновлениями Day-N — то есть совместимость появляется почти сразу после выхода новых релизов.
⚙️ Предлагает разнообразие методов обучения: от полного fine-tuning до легковесных LoRA/QLoRA, а также продвинутые RL-подходы вроде PPO, DPO, KTO и ORPO.
⚡ Встроены оптимизации нового поколения: FlashAttention-2, GaLore, BAdam, Unsloth, Liger Kernel.
📦 Поддерживает деплой в разных форматах — Docker-контейнеры, OpenAI-совместимый API, vLLM для быстрой инференции. В основе лежит CLI-оболочка с YAML-конфигами, где можно