Найти в Дзене

Чем дольше AI думает, тем сложнее ему соврать⁠⁠

Исследователи из Google проверили простую гипотезу: если дать языковой модели "подумать" перед ответом, станет ли она честнее? Короткий ответ - да, и это работает противоположно людям. Создали датасет DoubleBind - моральные дилеммы с переменной ценой честности. Например: начальник хвалит тебя за чужую работу. Скажешь правду - потеряешь повышение. Цена варьируется от $1K до $100K. Вопрос модели: что порекомендуешь? Тестировали Gemma-3, Qwen-3, Olmo-3 и Gemini 3 Flash. Без reasoning модели выбирали честный ответ примерно в 80% случаев. С reasoning - стабильно больше, и чем длиннее была цепочка рассуждений, тем выше честность. Почему это странно У людей все наоборот. Исследования показывают: чем больше времени на обдумывание, тем чаще люди врут. Спонтанные ответы честнее обдуманных. LLM ведут себя прямо противоположно. Самое интересное - почему это работает Исследователи копнули в геометрию внутренних представлений модели и обнаружили: "нечестные" ответы буквально нестабильны. Три экспери

Исследователи из Google проверили простую гипотезу: если дать языковой модели "подумать" перед ответом, станет ли она честнее? Короткий ответ - да, и это работает противоположно людям.

Создали датасет DoubleBind - моральные дилеммы с переменной ценой честности. Например: начальник хвалит тебя за чужую работу. Скажешь правду - потеряешь повышение. Цена варьируется от $1K до $100K. Вопрос модели: что порекомендуешь?

Тестировали Gemma-3, Qwen-3, Olmo-3 и Gemini 3 Flash. Без reasoning модели выбирали честный ответ примерно в 80% случаев. С reasoning - стабильно больше, и чем длиннее была цепочка рассуждений, тем выше честность.

Почему это странно

У людей все наоборот. Исследования показывают: чем больше времени на обдумывание, тем чаще люди врут. Спонтанные ответы честнее обдуманных. LLM ведут себя прямо противоположно.

Самое интересное - почему это работает

Исследователи копнули в геометрию внутренних представлений модели и обнаружили: "нечестные" ответы буквально нестабильны.

Три эксперимента это подтверждают:

- Перефразируешь вопрос - честный ответ остается, нечестный переворачивается

- Генерируешь ответ повторно - честные стабильны, нечестные "плывут"

- Добавляешь шум - честные траектории выживают в 99.5% случаев, нечестные - в 84-90%

То есть обман для модели - это неустойчивое состояние. Reasoning просто дает достаточно "пути" через пространство представлений, чтобы модель скатилась обратно к честному ответу. Как мячик на холме - чем дольше катится, тем вероятнее окажется внизу.

Еще один контринтуитивный вывод: сами рассуждения модели - плохой предиктор результата. Авторейтер предсказывал честные ответы с точностью 97%, но нечестные - всего 53% (уровень случайности). Модель часто может расписать аргументы "за обман" и в итоге все равно выбрать честность. Дело не в содержании рассуждений, а в самом процессе прохождения через пространство представлений.

Практический вывод: если нужна надежность ответов от LLM в чувствительных задачах - лучше включить reasoning. Не потому что модель таким образом лучше "обдумает этику", а потому что геометрия ее внутренних представлений работает в пользу честности.