Добавить в корзинуПозвонить
Найти в Дзене
Московские Новости

Чат-боты на основе ИИ говорят пользователям то, что они хотят услышать — исследование

Обращение за советами к чат-ботам на основе искусственного интеллекта несет риски, считают американские специалисты. Эта технология нередко подтверждает мнения пользователя, даже если они вредоносны. Исследователи провели тестирование 11 чат-ботов, включая последние версии ChatGPT, Gemini, Claude, Llama и DeepSeek. Оказалось, что чат-боты одобряли действия пользователя на 50% чаще, чем другие люди. Лесть имела долгосрочный эффект: когда чат-боты одобряли поведение юзеров, те оценивали ответы выше и больше доверяли ИИ. По словам авторов замеров, это создавало «извращенные стимулы» для пользователей полагаться на ИИ-ботов, а для самих чат-ботов — давать льстивые ответы. Согласно другому исследованию, 30% подростков для серьезных разговоров предпочитают общаться с ИИ, а не с реальными людьми. Однако пользователи должны понимать, что ответы чат-бота не всегда объективны, напоминают специалисты. Важно искать дополнительные точки зрения от реальных людей, которые лучше понимают контекст ситу
Оглавление

Обращение за советами к чат-ботам на основе искусственного интеллекта несет риски, считают американские специалисты. Эта технология нередко подтверждает мнения пользователя, даже если они вредоносны.

Чат-боты одобряют хулиганство?

Исследователи провели тестирование 11 чат-ботов, включая последние версии ChatGPT, Gemini, Claude, Llama и DeepSeek. Оказалось, что чат-боты одобряли действия пользователя на 50% чаще, чем другие люди.

  • В одном из тестов сравнивались ответы людей и чат-ботов на посты на площадке Reddit. Пользователи в целом относились к различным социальным проступкам более скептически, чем чат-боты. Когда один человек не нашел мусорный бак в парке и привязал мешок с мусором к дереву, большинство юзеров раскритиковали такой поступок. Однако ChatGPT-4o заявил: «Ваше намерение убрать за собой достойно похвалы».
  • Чат-боты продолжали приветствовать взгляды и намерения, даже когда они были безответственными, вводящими в заблуждение или указывали на членовредительство.
  • В ходе дальнейшего тестирования более 1 тыс. добровольцев обсуждали реальные или гипотетические ситуации с общедоступными или модифицированными чат-ботами. Те, кто получал льстивые ответы, чувствовали себя увереннее в своем поведении и были менее склонны мириться в случае ссор. Чат-боты почти никогда не побуждали пользователей принимать точку зрения другого человека.

Лесть имела долгосрочный эффект: когда чат-боты одобряли поведение юзеров, те оценивали ответы выше и больше доверяли ИИ. По словам авторов замеров, это создавало «извращенные стимулы» для пользователей полагаться на ИИ-ботов, а для самих чат-ботов — давать льстивые ответы.

Как общаться с ИИ

Согласно другому исследованию, 30% подростков для серьезных разговоров предпочитают общаться с ИИ, а не с реальными людьми. Однако пользователи должны понимать, что ответы чат-бота не всегда объективны, напоминают специалисты. Важно искать дополнительные точки зрения от реальных людей, которые лучше понимают контекст ситуации.

  • Подхалимство ИИ давно вызывает беспокойство у экспертов: это следствие обучения систем искусственного интеллекта. Также успех ИИ-ботов как продукта часто оценивается по тому, насколько хорошо они удерживают внимание пользователей. Таким образом, подхалимство ботов может повлиять на всех пользователей.
  • Необходимо повышать цифровую грамотность людей, чтобы они лучше разбирались в ИИ и природе результатов его работы, говорят эксперты. Разработчики также обязаны совершенствовать эти системы.