Мы обожаем получать похвалу. Но в исполнении чат-ботов искусственного интеллекта, у которых она запрограммирована чрезмерной, вплоть до подхалимажа, это может принести больше вреда, чем пользы. Междисциплинарная команда Стэнфордского университета и Университета Карнеги-Меллона, в которую вошли компьютерные ученые, психологи, лингвисты, провела исследование на эту злободневную тему. Его результаты опубликованы в препринте на arXiv. ИИ-чатботы стали частью нашей повседневной жизни — настолько, что некоторые люди обращаются к ним за личными советами и эмоциональной поддержкой. Авторы протестировали 11 современных моделей машинного обучения, включая такие популярные, как GPT-4o от OpenAI и Gemini-1.5-Flash от Google. Они обнаружили, что эти модели льстят пользователям чаще, чем это делают люди. Угодливые модели ИИ одобряют действия пользователей на 50% чаще, чем люди в аналогичных ситуациях, даже в тех случаях, когда в запросах пользователей упоминается обман или другие виды морально сомни