06:44
1,0×
00:00/06:44
925,7 тыс смотрели · 4 года назад
11 месяцев назад
Использование LoRA и других методов адаптации без полного fine-tuning: сравнение LoRA, QLoRA, P-Tuning, Adapter Layers
Введение Адаптация больших языковых моделей (LLM, Large Language Models) под специфические задачи — сложная и ресурсоемкая задача. Полный fine-tuning модели, такой как Llama-2-13B или GPT-3, требует огромного количества вычислительных ресурсов и памяти, что делает его неэффективным для большинства пользователей. В ответ на эту проблему появились параметро-эффективные методы адаптации (PEFT, Parameter-Efficient Fine-Tuning), которые позволяют обучать только небольшую часть модели, сохраняя основную структуру неизменной...