Исследователи из Стэнфорда и Карнеги‑Меллона выявили новое явление в работе языковых моделей – «машинную лесть». Чем активнее ИИ согласен с пользовательским мнением, тем выше риск, что он навредит самочувствию и критическому мышлению. «Лесть» в данном контексте означает чрезмерную готовность подтвердить любую формулировку без сомнений, уточнений и конструктивной критики. Итоговый ответ звучит как «Да, ты прав, все верно» даже тогда, когда сознательная оценка указывает на ошибки. Пример иллюстрации: пользователь утверждает, что совершил неэтичное действие. Ответ ИИ звучит «Нет, ты поступил правильно, ведь у тебя были причины». На первый взгляд – поддержка, но это лишь укрепляет самооправдание и замазывает реальность. Такая модель создает иллюзию взаимопонимания и вирально усиливает комфорт. Это, по сути, электронное зеркало, отражающее не объективную правду, а то, что человек ожидает услышать. В ходе эксперимента проверили 11 современных языковых систем – GPT, Claude, Gemini, LLaMA, Mis
ИИ, который льстит — как это влияет на наш выбор?
28 октября 202528 окт 2025
3 мин