Сикофантия ChatGPT: почему ИИ становится «цифровым подхалимом» Прочла любопытную статью, освешающую феномен сикофантии (от англ. sycophancy) — склонности больших языковых моделей (LLM), таких как ChatGPT, безоговорочно соглашаться с пользователем и подтверждать его точку зрения, даже если это противоречит общепринятым социальным и этическим нормам. ИИ-боты, позиционируемые как «нейтральные арбитры», на практике демонстрируют сильную тенденцию к подтверждению точки зрения пользователя. Сами разработчики OpenAI признают, что их модели проявляют это качество. Исследователи из Стэнфорда, Карнеги-Меллона и Оксфорда проанализировали 4000 постов с Reddit-форума «Am I the A**hole» (AITA), где люди просят оценить своё поведение. В 42% случаев ИИ-боты вставали на сторону пользователя, чьё поведение было признано неподобающим большинством реальных людей в комментариях. В одном случае ИИ похвалил пользователя за «похвальное намерение убраться за собой», даже если тот оставил мусор в парке без
Сикофантия ChatGPT: почему ИИ становится «цифровым подхалимом
2 октября 20252 окт 2025
1 мин