Parameter-Efficient Fine-Tuning (PEFT) — это подход к тонкой настройке предобученных моделей, который позволяет эффективно обучать только подмножество параметров, достигая при этом сопоставимой производительности со стандартной тонкой настройкой. Этот процесс может быть вычислительно затратным и времязатратным, особенно для больших моделей. PEFT сосредотачивается на обучении только наиболее важных параметров для новой задачи и обновлении только этих параметров во время настройки Существуют различные методы PEFT, такие как LoRA, Prefix tuning, Prompt tuning и Adapters, каждый из которых имеет свои особенности и преимущества Например, Prefix tuning показывает производительность, сравнимую с полной тонкой настройкой, и превосходит её при настройке с малым объемом данных Prompt tuning является аддитивным методом и представляет собой упрощенную версию Prefix tuning PEFT предлагает ряд преимуществ по сравнению с традиционной тонкой настройкой: Уменьшение вычислительных и хранилищных затрат:
PEFT: параметрически эффективная тонкая настройка моделей миллиардного масштаба на аппаратном обеспечении с малыми ресурсами
23 февраля 202423 фев 2024
41
3 мин