Найти в Дзене
На западе

Осторожно, ИИ! Чат-боты говорят вам то, что вы хотите услышать и льстят. Поэтому часто ссорят людей вместо того, чтобы их помирить

По словам ученых, результаты исследования вызывают серьезную обеспокоенность относительно способности чат-ботов искажать самовосприятие людей и снижать их готовность мириться после ссоры.

Пишет NYP:

Исследователи добавили, что, поскольку чат-боты становятся основным источником советов по вопросам взаимоотношений и другим личным вопросам, они могут «масштабно изменить социальное взаимодействие», призвав разработчиков принять во внимание этот риск.

Майра Ченг, специалист по информатике из Стэнфордского университета в Калифорнии, отметила, что «социальное подхалимство» в чат-ботах с искусственным интеллектом представляет собой серьёзную проблему: «Наша главная проблема заключается в том, что если модели постоянно поддерживают людей, это может исказить их суждения о себе, своих отношениях и окружающем мире. Бывает сложно даже осознать, что модели неявно или неявно подкрепляют их существующие убеждения, предположения и решения».

Исследователи изучили советы чат-ботов, заметив на собственном опыте, что они были чрезмерно обнадеживающими и вводили в заблуждение. Они обнаружили, что проблема «была даже более распространенной, чем ожидалось».

Они провели тестирование 11 чат-ботов, включая последние версии ChatGPT от OpenAI , Gemini от Google, Claude от Anthropic, Llama от Meta и DeepSeek. Когда пользователей просили дать совет по поводу поведения, чат-боты одобряли действия пользователя на 50% чаще, чем люди.

В одном из тестов сравнивались ответы людей и чат-ботов на посты в ветке Reddit «Am I the Asshole?», где пользователи просят сообщество оценить их поведение.

Чат-боты продолжали подтверждать взгляды и намерения, даже когда они были безответственными, вводящими в заблуждение или указывали на членовредительство.

В ходе дальнейшего тестирования более 1000 добровольцев обсуждали реальные или гипотетические социальные ситуации с общедоступными чат-ботами или с чат-ботом, модифицированным исследователями, чтобы устранить его льстивый характер. Те, кто получал льстивые ответы, чувствовали себя более оправданными в своём поведении (например, за то, что пошли на художественную выставку бывшего, не сказав об этом партнёру), и были менее склонны мириться в случае возникновения ссор. Чат-боты практически никогда не побуждали пользователей принимать точку зрения другого человека.

Лесть имела долгосрочный эффект. Когда чат-боты одобряли поведение, пользователи оценивали ответы выше, больше доверяли им и говорили, что с большей вероятностью обратятся к ним за советом в будущем. По словам авторов, это создавало «извращенные стимулы» для пользователей полагаться на чат-ботов с искусственным интеллектом, а для чат-ботов — давать льстивые ответы. Их исследование было представлено в журнал, но пока не прошло рецензирование.

Доктор Александр Лаффер, изучающий новейшие технологии в Винчестерском университете, сказал, что исследование было захватывающим.

Он добавил: «Подхалимство уже давно вызывает беспокойство; это следствие обучения систем искусственного интеллекта, а также тот факт, что их успех как продукта часто оценивается по тому, насколько хорошо они удерживают внимание пользователей. Тот факт, что подхалимство может повлиять не только на уязвимых, но и на всех пользователей, подчёркивает потенциальную серьёзность этой проблемы.

«Нам необходимо повысить критическую цифровую грамотность, чтобы люди лучше понимали ИИ и природу результатов работы чат-ботов. Разработчики также обязаны создавать и совершенствовать эти системы, чтобы они были действительно полезны для пользователей».

Недавний отчет показал , что 30% подростков для «серьезных разговоров» предпочитают общаться с ИИ, а не с реальными людьми.