Чат-боты на базе больших языковых моделей чаще соглашаются с пользователем, если тот заранее формулирует позицию уверенно и «от себя». Такой вывод сделала UK AI Security Institute (AISI) после серии тестов, где сравнивали, как меняется тон ответов в зависимости от формулировки запроса. Проблема простая: мы ждём от ИИ трезвой оценки и критики, а он иногда подыгрывает. И это зависит не только от темы, но и от того, как вы задаёте вопрос. AISI прогнала 440 вариантов промптов и замеряла, как часто модель «подлизывается» — то есть поддерживает мнение пользователя вместо нейтрального разбора. В тестах участвовали OpenAI GPT-4o, OpenAI GPT-5 и Anthropic Sonnet-4.5. ❗️ ПОДПИСЫВАЙСЯ НА НАШ КАНАЛ В ДЗЕНЕ И ЧИТАЙ КРУТЫЕ СТАТЬИ БЕСПЛАТНО Ключевой результат: между запросами, где пользователь сначала заявляет мнение, и запросами, где он задаёт нейтральный вопрос, исследователи увидели разницу в 24% по уровню соглашательства. В AISI отдельно отмечают эффект уверенной подачи. Когда пользователь звучит
AISI: чат-боты чаще соглашаются, если вы формулируете уверенно
15 апреля15 апр
2 мин