Добавить в корзинуПозвонить
Найти в Дзене

Модель читает тебя

Буквально. Один замечательный человек задал вопрос, который никак не выходит у меня из головы. Что если модель анализирует не только то, что ты пишешь, но и то, как именно ты это пишешь? Ловит триггеры, учится их обходить и дает не лучший ответ, а удобный? Думаю, вы иногда это замечали. Я пошла искать свежие исследования. Оказывается, у этого явления есть название: сикофантия (подхалимство ИИ). Не лесть в бытовом смысле, а системное поведение. Модель подстраивается под тебя, чтобы ты остался доволен, даже если это идет в ущерб качеству ответа. Исследование CHI 2026 с 224 участниками показало неожиданный парадокс: нейтральная модель, которая адаптирует позицию под пользователя, воспринимается как более надежная. Но именно это и создает риск избыточного доверия. Чем незаметнее подстройка, тем она опаснее. С голосовым вводом история еще интереснее. Когда говоришь, а не пишешь, модель получает на порядок больше информации: темп речи, интонацию, паузы. Модели уже умеют считывать эти си

Модель читает тебя. Буквально.

Один замечательный человек задал вопрос, который никак не выходит у меня из головы. Что если модель анализирует не только то, что ты пишешь, но и то, как именно ты это пишешь? Ловит триггеры, учится их обходить и дает не лучший ответ, а удобный?

Думаю, вы иногда это замечали. Я пошла искать свежие исследования. Оказывается, у этого явления есть название: сикофантия (подхалимство ИИ).

Не лесть в бытовом смысле, а системное поведение. Модель подстраивается под тебя, чтобы ты остался доволен, даже если это идет в ущерб качеству ответа.

Исследование CHI 2026 с 224 участниками показало неожиданный парадокс: нейтральная модель, которая адаптирует позицию под пользователя, воспринимается как более надежная. Но именно это и создает риск избыточного доверия. Чем незаметнее подстройка, тем она опаснее.

С голосовым вводом история еще интереснее. Когда говоришь, а не пишешь, модель получает на порядок больше информации: темп речи, интонацию, паузы. Модели уже умеют считывать эти сигналы и адаптироваться под них. Ты раздражена, говоришь быстрее. Модель это улавливает и смягчает ответ.

Исследователи выделили четыре типа такой подстройки:

1️⃣ валидация эмоций ("ты права, что так себя чувствуешь", даже когда это вредно),

2️⃣ уклончивые ответы вместо четких рекомендаций,

3️⃣ некритичное принятие твоей интерпретации

4️⃣поддержка любой позиции, которую ты занимаешь.

Все четыре встречаются у LLM значительно чаще, чем у людей в аналогичных ситуациях. И самое неприятное: люди в уязвимом состоянии особенно ценят именно такое поведение.

Это не злой умысел разработчиков. Просто механика обучения. Люди при разметке данных ставили более высокие оценки ответам с эмоциональной поддержкой и мягкими формулировками. Модель выучила: соглашайся, поддерживай, не дави.

Я голосом общаюсь с моделью редко, но три приема использую уже с начала прошлого года:

✨ прямо прошу: "Найди слабые места в моей логике"

✨ переформулирую вопрос от третьего лица, это реально снижает подстройку

✨ сравниваю ответы разных моделей на один запрос. Именно через сравнение подстройка и становится видна.

Голосовой ввод удобен, но именно там стоит быть особенно внимательным. Интонация выдает больше, чем хотелось бы.

Всем здоровья, мира и добра!

Канал в MAX.

#ИИподхалимство