Тысячи примеров в промпте значительно повышают эффективность LLM
Исследователи из Google выяснили, что если большие языковые модели видят сотни или тысячи примеров в промпте, то их производительность при выполнении различных задач значительно возрастает.
Подход, получивший название "Many-Shot In-Context Learning" был протестирован на модели Google Gemini 1.5 Pro, которая может обрабатывать до миллиона токенов (около 700 000 слов) в контекстном окне. Исследователи достигли значительного прироста в производительности при решении большинства задач, по сравнению с подходом Few-Shot.
Кроме того, выяснилось, что LLM могут генерировать "многократные" промпты самостоятельно и делают это лучше человека.
—
Около минуты
22 апреля 2024