Найти в Дзене
Машинное обучение

⚡️ LLM можно “прокачать” в разы… просто повторив промпт

Исследование Google показало простой, но мощный трюк: если вставить один и тот же промпт дважды, точность модели может резко вырасти. Почему это работает: LLM читает текст слева направо. Первые слова обрабатываются до того, как модель увидит весь контекст. Из-за этого она иногда рано делает неверные предположения и «держится» за них. Когда вы дублируете промпт: - вторая копия читается уже с пониманием полного контекста - модель лучше интерпретирует задачу прямо перед ответом - уменьшается количество ошибок из-за неправильного старта Где эффект максимальный: - важные детали находятся в конце запроса - варианты ответа идут до вопроса - задачи поиска, логики и сложных инструкций Результаты: - сложная задача: 21.33% → 97.33% - протестировано на 7 моделях и 7 бенчмарках - улучшение в 47 из 70 случаев - статистически значимого ухудшения ни разу Многие ошибки LLM - это не нехватка знаний. Это проблема порядка чтения контекста. И самое приятно - трюк бесплатный: просто продублируйте

⚡️ LLM можно “прокачать” в разы… просто повторив промпт

Исследование Google показало простой, но мощный трюк:

если вставить один и тот же промпт дважды, точность модели может резко вырасти.

Почему это работает:

LLM читает текст слева направо.

Первые слова обрабатываются до того, как модель увидит весь контекст.

Из-за этого она иногда рано делает неверные предположения и «держится» за них.

Когда вы дублируете промпт:

- вторая копия читается уже с пониманием полного контекста

- модель лучше интерпретирует задачу прямо перед ответом

- уменьшается количество ошибок из-за неправильного старта

Где эффект максимальный:

- важные детали находятся в конце запроса

- варианты ответа идут до вопроса

- задачи поиска, логики и сложных инструкций

Результаты:

- сложная задача: 21.33% → 97.33%

- протестировано на 7 моделях и 7 бенчмарках

- улучшение в 47 из 70 случаев

- статистически значимого ухудшения ни разу

Многие ошибки LLM - это не нехватка знаний.

Это проблема порядка чтения контекста.

И самое приятно - трюк бесплатный:

просто продублируйте свой промпт перед отправкой.

arxiv.org/abs/2512.14982