Исследование Google показало простой, но мощный трюк: если вставить один и тот же промпт дважды, точность модели может резко вырасти. Почему это работает: LLM читает текст слева направо. Первые слова обрабатываются до того, как модель увидит весь контекст. Из-за этого она иногда рано делает неверные предположения и «держится» за них. Когда вы дублируете промпт: - вторая копия читается уже с пониманием полного контекста - модель лучше интерпретирует задачу прямо перед ответом - уменьшается количество ошибок из-за неправильного старта Где эффект максимальный: - важные детали находятся в конце запроса - варианты ответа идут до вопроса - задачи поиска, логики и сложных инструкций Результаты: - сложная задача: 21.33% → 97.33% - протестировано на 7 моделях и 7 бенчмарках - улучшение в 47 из 70 случаев - статистически значимого ухудшения ни разу Многие ошибки LLM - это не нехватка знаний. Это проблема порядка чтения контекста. И самое приятно - трюк бесплатный: просто продублируйте