Найти тему

Тысячи примеров в промпте значительно повышают эффективность LLM


Исследователи из Google выяснили, что если большие языковые модели видят сотни или тысячи примеров в промпте, то их производительность при выполнении различных задач значительно возрастает.

Подход, получивший название "Many-Shot In-Context Learning" был протестирован на модели Google Gemini 1.5 Pro, которая может обрабатывать до миллиона токенов (около 700 000 слов) в контекстном окне. Исследователи достигли значительного прироста в производительности при решении большинства задач, по сравнению с подходом Few-Shot.

Кроме того, выяснилось, что LLM могут генерировать "многократные" промпты самостоятельно и делают это лучше человека.


Мой второй канал: @startupoftheday — рассказ о новом стартапе каждый день. Кратко и без воды.
Около минуты