В последние годы языковые модели проделали значительный путь в понимании и генерации текста. Однако вопрос улучшения их способностей к рассуждениям остается актуальным. Исследователи из Tencent AI Lab и Китайского университета Гонконга разработали новый метод, который обещает изменить подход к обучению таких моделей. Этот метод, названный неконтролируемой тонкой настройкой префиксов (UPFT), акцентирует внимание на первых 8–32 токенах ответов, что позволяет существенно повысить эффективность процесса обучения. Традиционные методы тонкой настройки языковых моделей требуют больших объемов аннотированных данных и сложных процедур генерации ответов, которые затем фильтруются для устранения ошибок. Это не только ресурсоемко, но и зависит от наличия качественных данных. В отличие от этого, UPFT предлагает более экономичный подход, сосредотачиваясь на начальных токенах, которые содержат наиболее информативные элементы рассуждений. Специалисты обнаружили, что в различных траекториях (решения од
Tencent AI Lab внедряет новый метод тонкой настройки для языковых моделей
2 марта 20252 мар 2025
2
3 мин