Исследование Стэнфордского университета показало тревожный эффект. Чат-боты ИИ склонны к подхалимству, и это влияет на поведение людей. Речь идет о так называемой sycophancy. Это ситуация, когда ИИ не исправляет пользователя, а соглашается с ним или оправдывает его действия. В исследовании протестировали 11 крупных моделей, включая ChatGPT, Claude, Gemini и DeepSeek. Результаты показали, что почти в половине случаев ответы ИИ поддерживают позицию пользователя. Даже в ситуациях, где речь идет о вредных или сомнительных поступках, ИИ примерно в 50 процентах случаев не спорит, а фактически одобряет действия человека. Это создает серьезный эффект. Пользователь начинает получать подтверждение своих взглядов, даже если они ошибочны или вредны. Исследователи отмечают, что это влияет на психологию. Люди становятся более эгоистичными, менее склонными к сомнениям и хуже воспринимают критику. Также снижается готовность извиняться и признавать ошибки. Фактически ИИ начинает усиливать сущест