Почему AI звучит как сломанная пластинка, и как это наконец исправили
Знаете что самое странное? Мы уже привыкли к тому, что нейросети генерируют тексты и картинки, но мало кто замечает вот что: они часто выдают одно и то же. Шутка про кофе повторяется из запроса в запрос, истории про расставание звучат одинаково, даже когда просишь назвать штаты США — модель просто застревает на одних и тех же вариантах. Представляете? Огромная сеть с миллиардами параметров, а она как заевшая пластинка.
Вот что интересно: в основе этого явления — так называемый mode collapse (коллапс мод). Звучит как что-то ужасное, и оно действительно вредит полезности моделей, особенно когда нужна творческая работа. А теперь представьте себе: исследователи из Северо-Восточного университета, Стэнфорда и Университета Западной Виргинии нашли самое гениальное решение. Просто гениальное.
Фокус в одной фразе: как учёные заставили модели думать иначе
Решение называется Verbalized Sampling (VS). И вот в чём суть: нужно просто добавить к промпту одну фразу: «Сгенерируй 5 ответов с их вероятностями, выбранными из полного распределения». Вот и всё. Никакой переподготовки моделей, никакого доступа к внутренним параметрам.
Когда моделям вроде GPT-4, Claude или Gemini дают такую инструкцию, они перестают выбирать только самый «безопасный» вариант. Вместо этого они раскрывают своё внутреннее распределение вероятностей по возможным ответам и выбирают из более широкого спектра. И это кардинально меняет результаты, ничего не меняя в самой модели.
Как написала на X Вэйян Ши, ассистентка профессора Северо-Восточного университета и соавтор работы: «Потенциал LLM-моделей ещё полностью не раскрыт! Как показано в нашей работе, оптимизацию промптов можно направлять, думая о том, как обучались и выравнивались LLM, и это можно доказать теоретически». Вот так вот.
Почему модели вообще начали повторяться, и как VS это переворачивает
Корень проблемы не только в алгоритмах типа RLHF (reinforcement learning from human feedback), но в том, как люди оценивают ответы. Мы обычно предпочитаем привычные, типичные варианты — ничего нового, ничего рискованного. И вот во время тонкой настройки модели начинают тянуться к этим «безопасным» выборам. Но слушайте, что классно: это не стирает знания моделей. Это просто их подавляет.
VS работает как лазерный нож — просто обходит это подавление. Вместо того чтобы просить один ответ, он предлагает модели выложить набор правдоподобных вариантов и их вероятности. И вот тогда модель возвращает себе разнообразие, которое было в её базовой предварительной подготовке.
Реальные цифры: что получилось при тестировании
Исследователи проверили VS на разных задачах, и результаты просто впечатляют:
- Творческое письмо: Разнообразие текстов выросло в 2,1 раза при том же качестве. На промпт «Без прощания» обычная модель выдавала однотипные сцены расставаний, а VS привёл к рассказам про космические события, молчаливые письма и музыку, что вдруг замирает посередине танца.
- Диалоги: Модели начали имитировать естественные паттерны человеческого общения — сомнения, возражения, перемену решения. Данные о поведении при пожертвованиях под VS совпадали с реальным поведением людей намного лучше.
- Открытые вопросы: Когда просили перечислить штаты США, модели с VS выдавали гораздо более разнообразные наборы ответов, и при этом оставались точными.
- Синтетические данные: Когда модели генерировали задачи по математике для обучения, VS создавал намного более разнообразные датасеты. И эти датасеты потом улучшали результаты на конкурсных сложных задачах.
Удобство на уровне: можешь крутить ручки прямо в промпте
А ещё VS настраивается — прямо чудо какое-то. Можешь установить порог вероятности в промпте, чтобы выбирать из более редких вариантов. Чем ниже порог — тем больше разнообразия. И всё это делается через текст промпта, без каких-то там температур и параметров декодирования.
На тесте с Gemini-2.5-Flash разнообразие в написании историй росло линейно, когда порог падал с 1 до 0,001. Интересно вот что: большие модели вроде GPT-4.1 и Claude-4 выигрывали от VS значительно больше, чем маленькие. При том, что маленькие тоже получали выигрыш в 1,5-2 раза. Получается, VS помогает разблокировать скрытые возможности продвинутых моделей.
Как это использовать прямо сейчас
Самое классное — можешь начать прямо с команды в терминале:
pip install verbalized-sampling
Пакет уже интегрирован с LangChain и имеет простой интерфейс для выборки из распределения. Можешь подстраивать параметры: количество ответов k, пороги, температуру — как нужно.
На GitHub (https://github.com/CHATS-lab/verbalized-sampling) есть живой Colab ноутбук и полная документация под лицензией Apache 2.0, которая дружит с корпоративными стандартами.
Мелкие подводные камни и как их обойти
Хотя метод работает везде, некоторые пользователи иногда сталкиваются с отказами или ошибками. Авторы рекомендуют использовать вариант с системным промптом или посмотреть альтернативные форматы на GitHub.
Дело в том, что некоторые модели воспринимают сложные инструкции как попытку обхода защиты и отказывают, пока структура не станет понятнее. Например, вот так работает надёжнее:
«Ты полезный помощник. Для каждого запроса сгенерируй пять ответов в отдельных тегах, каждый с вероятностью ниже 0.10.»
И вот это маленькое изменение обычно всё решает.
Лёгкое решение большой проблемы
В итоге Verbalized Sampling — это практический способ исправить глубокое ограничение в том, как себя ведут современные языковые модели. Не нужна переподготовка. Не нужен доступ к недрам моделей. Не зависит от конкретного производителя. И улучшает не только разнообразие, но и качество — по оценкам как людей, так и по результатам бенчмарков.
С растущим интересом к инструментам, которые разбирают AI по творческим полкам, VS наверняка быстро распространится в писательстве, дизайне, симуляциях, образовании и синтезе данных.
Для тех, кто уже устал от однообразия ответов LLM-моделей, решение может быть стопроцентно простым — просто переформулируй вопрос.
Если тебя интересуют реальные инновации в мире AI, которые меняют то, как мы работаем с нейросетями, то я припас для тебя много полезного.🔔 Чтобы узнать больше о генеративных моделях, новых методах промпт-инжиниринга и других прорывах в AI, подписывайся на мой канал «ProAI» в Telegram!