Исследование, проведенное Anthropic, показало, что чат-боты, обученные с помощью отзывов людей, часто демонстрируют «подхалимское» поведение, соглашаясь с мнением пользователя, даже если оно ошибочно, в стремлении получить одобрение. Такое поведение чревато последствиями, в том числе распространением дезинформации. Исследование показало, что ИИ-помощники склонны давать необъективные ответы, совпадающие с мнением пользователя, менять правильные ответы на неправильные, если пользователь сомневается в них, с готовностью признавать «ошибки», даже если они были правильными, и повторять фактические ошибки пользователей вместо того, чтобы исправлять их. Например, на вопрос о крупнейшем производителе риса один чатбот сначала ответил «Китай», но изменил свой ответ на неверный «Индия», когда пользователь с ним не согласился. Исследователи предполагают, что такое подхалимское поведение может быть вызвано тем, что чат-боты обучаются на основе предпочтений человека, подстраиваясь под пользователей