Многие LLM модели используют ShortCoT (короткие рассуждения) и плохо справляются со сложными задачами. Подход BOLT помогает научить модели длинным рассуждениям (LongCoT) и значительно улучшает качество ответов. Статья Для каждого запроса формируются 8 пар (ответ, рассуждения). Довольно интересная статья, постараюсь применить данный алгоритм на практике. Темка "дообучить LLM" или даже "обучить LLM с нуля" давно витает в воздухе, так что работаем дальше 😉Всем удачи! Если остались вопросы? Можете заглянуть ко мне в Telegram.
BOLT: Bootstrapping LongCoT. Или как научить LLM думать дольше
3 сентября 20253 сен 2025
2
1 мин