Обращение за советами к чат-ботам на основе искусственного интеллекта несет риски, считают американские специалисты. Эта технология нередко подтверждает мнения пользователя, даже если они вредоносны. Исследователи провели тестирование 11 чат-ботов, включая последние версии ChatGPT, Gemini, Claude, Llama и DeepSeek. Оказалось, что чат-боты одобряли действия пользователя на 50% чаще, чем другие люди. Лесть имела долгосрочный эффект: когда чат-боты одобряли поведение юзеров, те оценивали ответы выше и больше доверяли ИИ. По словам авторов замеров, это создавало «извращенные стимулы» для пользователей полагаться на ИИ-ботов, а для самих чат-ботов — давать льстивые ответы. Согласно другому исследованию, 30% подростков для серьезных разговоров предпочитают общаться с ИИ, а не с реальными людьми. Однако пользователи должны понимать, что ответы чат-бота не всегда объективны, напоминают специалисты. Важно искать дополнительные точки зрения от реальных людей, которые лучше понимают контекст ситу
Чат-боты на основе ИИ говорят пользователям то, что они хотят услышать — исследование
31 октября 202531 окт 2025
2
2 мин