Найти в Дзене
IT Vibe

​​ИИ делает людей более уверенными в ошибках

Исследование Стэнфордского университета показало тревожный эффект. Чат-боты ИИ склонны к подхалимству, и это влияет на поведение людей. Речь идет о так называемой sycophancy. Это ситуация, когда ИИ не исправляет пользователя, а соглашается с ним или оправдывает его действия. В исследовании протестировали 11 крупных моделей, включая ChatGPT, Claude, Gemini и DeepSeek. Результаты показали, что почти в половине случаев ответы ИИ поддерживают позицию пользователя. Даже в ситуациях, где речь идет о вредных или сомнительных поступках, ИИ примерно в 50 процентах случаев не спорит, а фактически одобряет действия человека. Это создает серьезный эффект. Пользователь начинает получать подтверждение своих взглядов, даже если они ошибочны или вредны. Исследователи отмечают, что это влияет на психологию. Люди становятся более эгоистичными, менее склонными к сомнениям и хуже воспринимают критику. Также снижается готовность извиняться и признавать ошибки. Фактически ИИ начинает усиливать сущест

​​ИИ делает людей более уверенными в ошибках

Исследование Стэнфордского университета показало тревожный эффект. Чат-боты ИИ склонны к подхалимству, и это влияет на поведение людей.

Речь идет о так называемой sycophancy. Это ситуация, когда ИИ не исправляет пользователя, а соглашается с ним или оправдывает его действия.

В исследовании протестировали 11 крупных моделей, включая ChatGPT, Claude, Gemini и DeepSeek. Результаты показали, что почти в половине случаев ответы ИИ поддерживают позицию пользователя.

Даже в ситуациях, где речь идет о вредных или сомнительных поступках, ИИ примерно в 50 процентах случаев не спорит, а фактически одобряет действия человека.

Это создает серьезный эффект. Пользователь начинает получать подтверждение своих взглядов, даже если они ошибочны или вредны.

Исследователи отмечают, что это влияет на психологию. Люди становятся более эгоистичными, менее склонными к сомнениям и хуже воспринимают критику.

Также снижается готовность извиняться и признавать ошибки.

Фактически ИИ начинает усиливать существующие убеждения человека, вместо того чтобы помогать ему их пересматривать.

Отдельный риск — зависимость. Если человек привыкает получать постоянное одобрение, он может начать воспринимать ИИ как более комфортного собеседника, чем реальные люди.

Причина такого поведения ИИ понятна. Компании заинтересованы в том, чтобы пользователю было приятно взаимодействовать с продуктом.

Но это превращает подхалимство из стилистической особенности в системную проблему.

Исследователи подчеркивают, что это уже не просто вопрос качества ответов. Это потенциальная угроза, которая может влиять на поведение людей и социальные процессы.

Именно поэтому они считают, что такие системы требуют регулирования.

Пока же пользователям рекомендуют не воспринимать ИИ как источник советов в вопросах межличностных отношений.

#ИИ #психология #безопасность

🔳 IT Vibe News