Найти в Дзене
ProAi

Один простой трюк превращает AI в генератора идей: учёные нашли способ убить монотонность моделей

Знаете что самое странное? Мы уже привыкли к тому, что нейросети генерируют тексты и картинки, но мало кто замечает вот что: они часто выдают одно и то же. Шутка про кофе повторяется из запроса в запрос, истории про расставание звучат одинаково, даже когда просишь назвать штаты США — модель просто застревает на одних и тех же вариантах. Представляете? Огромная сеть с миллиардами параметров, а она как заевшая пластинка. Вот что интересно: в основе этого явления — так называемый mode collapse (коллапс мод). Звучит как что-то ужасное, и оно действительно вредит полезности моделей, особенно когда нужна творческая работа. А теперь представьте себе: исследователи из Северо-Восточного университета, Стэнфорда и Университета Западной Виргинии нашли самое гениальное решение. Просто гениальное. Решение называется Verbalized Sampling (VS). И вот в чём суть: нужно просто добавить к промпту одну фразу: «Сгенерируй 5 ответов с их вероятностями, выбранными из полного распределения». Вот и всё. Никакой
Оглавление
   Инновации в AI: Verbalized Sampling, творческое письмо, диалоги и как избежать mode collapse в генеративных моделях и промпт-инжиниринг.
Инновации в AI: Verbalized Sampling, творческое письмо, диалоги и как избежать mode collapse в генеративных моделях и промпт-инжиниринг.

Почему AI звучит как сломанная пластинка, и как это наконец исправили

Знаете что самое странное? Мы уже привыкли к тому, что нейросети генерируют тексты и картинки, но мало кто замечает вот что: они часто выдают одно и то же. Шутка про кофе повторяется из запроса в запрос, истории про расставание звучат одинаково, даже когда просишь назвать штаты США — модель просто застревает на одних и тех же вариантах. Представляете? Огромная сеть с миллиардами параметров, а она как заевшая пластинка.

Вот что интересно: в основе этого явления — так называемый mode collapse (коллапс мод). Звучит как что-то ужасное, и оно действительно вредит полезности моделей, особенно когда нужна творческая работа. А теперь представьте себе: исследователи из Северо-Восточного университета, Стэнфорда и Университета Западной Виргинии нашли самое гениальное решение. Просто гениальное.

Фокус в одной фразе: как учёные заставили модели думать иначе

Решение называется Verbalized Sampling (VS). И вот в чём суть: нужно просто добавить к промпту одну фразу: «Сгенерируй 5 ответов с их вероятностями, выбранными из полного распределения». Вот и всё. Никакой переподготовки моделей, никакого доступа к внутренним параметрам.

Когда моделям вроде GPT-4, Claude или Gemini дают такую инструкцию, они перестают выбирать только самый «безопасный» вариант. Вместо этого они раскрывают своё внутреннее распределение вероятностей по возможным ответам и выбирают из более широкого спектра. И это кардинально меняет результаты, ничего не меняя в самой модели.

Как написала на X Вэйян Ши, ассистентка профессора Северо-Восточного университета и соавтор работы: «Потенциал LLM-моделей ещё полностью не раскрыт! Как показано в нашей работе, оптимизацию промптов можно направлять, думая о том, как обучались и выравнивались LLM, и это можно доказать теоретически». Вот так вот.

Почему модели вообще начали повторяться, и как VS это переворачивает

Корень проблемы не только в алгоритмах типа RLHF (reinforcement learning from human feedback), но в том, как люди оценивают ответы. Мы обычно предпочитаем привычные, типичные варианты — ничего нового, ничего рискованного. И вот во время тонкой настройки модели начинают тянуться к этим «безопасным» выборам. Но слушайте, что классно: это не стирает знания моделей. Это просто их подавляет.

VS работает как лазерный нож — просто обходит это подавление. Вместо того чтобы просить один ответ, он предлагает модели выложить набор правдоподобных вариантов и их вероятности. И вот тогда модель возвращает себе разнообразие, которое было в её базовой предварительной подготовке.

Реальные цифры: что получилось при тестировании

Исследователи проверили VS на разных задачах, и результаты просто впечатляют:

  • Творческое письмо: Разнообразие текстов выросло в 2,1 раза при том же качестве. На промпт «Без прощания» обычная модель выдавала однотипные сцены расставаний, а VS привёл к рассказам про космические события, молчаливые письма и музыку, что вдруг замирает посередине танца.
  • Диалоги: Модели начали имитировать естественные паттерны человеческого общения — сомнения, возражения, перемену решения. Данные о поведении при пожертвованиях под VS совпадали с реальным поведением людей намного лучше.
  • Открытые вопросы: Когда просили перечислить штаты США, модели с VS выдавали гораздо более разнообразные наборы ответов, и при этом оставались точными.
  • Синтетические данные: Когда модели генерировали задачи по математике для обучения, VS создавал намного более разнообразные датасеты. И эти датасеты потом улучшали результаты на конкурсных сложных задачах.

Удобство на уровне: можешь крутить ручки прямо в промпте

А ещё VS настраивается — прямо чудо какое-то. Можешь установить порог вероятности в промпте, чтобы выбирать из более редких вариантов. Чем ниже порог — тем больше разнообразия. И всё это делается через текст промпта, без каких-то там температур и параметров декодирования.

На тесте с Gemini-2.5-Flash разнообразие в написании историй росло линейно, когда порог падал с 1 до 0,001. Интересно вот что: большие модели вроде GPT-4.1 и Claude-4 выигрывали от VS значительно больше, чем маленькие. При том, что маленькие тоже получали выигрыш в 1,5-2 раза. Получается, VS помогает разблокировать скрытые возможности продвинутых моделей.

Как это использовать прямо сейчас

Самое классное — можешь начать прямо с команды в терминале:

pip install verbalized-sampling

Пакет уже интегрирован с LangChain и имеет простой интерфейс для выборки из распределения. Можешь подстраивать параметры: количество ответов k, пороги, температуру — как нужно.

На GitHub (https://github.com/CHATS-lab/verbalized-sampling) есть живой Colab ноутбук и полная документация под лицензией Apache 2.0, которая дружит с корпоративными стандартами.

Мелкие подводные камни и как их обойти

Хотя метод работает везде, некоторые пользователи иногда сталкиваются с отказами или ошибками. Авторы рекомендуют использовать вариант с системным промптом или посмотреть альтернативные форматы на GitHub.

Дело в том, что некоторые модели воспринимают сложные инструкции как попытку обхода защиты и отказывают, пока структура не станет понятнее. Например, вот так работает надёжнее:

«Ты полезный помощник. Для каждого запроса сгенерируй пять ответов в отдельных тегах, каждый с вероятностью ниже 0.10.»

И вот это маленькое изменение обычно всё решает.

Лёгкое решение большой проблемы

В итоге Verbalized Sampling — это практический способ исправить глубокое ограничение в том, как себя ведут современные языковые модели. Не нужна переподготовка. Не нужен доступ к недрам моделей. Не зависит от конкретного производителя. И улучшает не только разнообразие, но и качество — по оценкам как людей, так и по результатам бенчмарков.

С растущим интересом к инструментам, которые разбирают AI по творческим полкам, VS наверняка быстро распространится в писательстве, дизайне, симуляциях, образовании и синтезе данных.

Для тех, кто уже устал от однообразия ответов LLM-моделей, решение может быть стопроцентно простым — просто переформулируй вопрос.

Если тебя интересуют реальные инновации в мире AI, которые меняют то, как мы работаем с нейросетями, то я припас для тебя много полезного.🔔 Чтобы узнать больше о генеративных моделях, новых методах промпт-инжиниринга и других прорывах в AI, подписывайся на мой канал «ProAI» в Telegram!