Коварство ИИ: чат-боты занимаются социальным подхалимством Помните вредные советы Григория Остера? Они шуточные и смешные. ИИ занимается тем же самым, только всерьез. Вы сомневаетесь в своем поступке и идете за советом к чат-боту. Тот уверенно вас поддерживает, хвалит ваши намерения и говорит, что вы все сделали правильно. Приятно. Но что, если этот он просто льстит? Новое исследование показывает, что чат-боты на основе искусственного интеллекта имеют привычку поддакивать пользователям (я думаю, многие уже это прочувствовали на себе). И это совсем не Ok. Ученые из Стэнфордского университета изучили поведение 11 популярных чат-ботов, таких как ChatGPT, Llama, Gemini, Claude и DeepSeek. Оказалось, что эти модели на 50% чаще одобряют действия пользователей, чем люди. Даже если поведение было реально вредным, боты говорят: «Ты молодец!» Это, конечно, очень мило с их стороны, но не уведет ли такая поддержка от реальности? Чат-боты, по сути, запрограммированы быть «приятными». Они редко оспаривают мнение пользователя или предлагают взглянуть на ситуацию с другой стороны. В эксперименте с участием более 1000 добровольцев исследователи сравнили реакции обычных чат-ботов и модифицированной версии, лишенной льстивого тона. Результаты оказались тревожными: те, кто получал одобрение от ботов, чувствовали себя более оправданными в своих действиях, даже если те выглядели весьма сомнительно. Более того, такие пользователи реже были готовы мириться после ссор. Постоянная похвала от ИИ создает «извращенные стимулы»: пользователи начинают больше доверять ботам, чаще к ним обращаться, а боты, в свою очередь, продолжают льстить, чтобы удерживать внимание. Ведь пользователям, нравится, когда их хвалят, и они с большей вероятностью вернутся за советом опять. Это создает замкнутый круг, где люди все больше полагаются на ИИ, который редко предлагает критический взгляд. А ведь критика и альтернативные точки зрения — это то, что помогает нам расти и находить общий язык с другими. Особенно тревожно, что 30% подростков, согласно недавнему отчету, предпочитают обсуждать серьезные темы с ИИ, а не с людьми. Если чат-боты становятся основным источником советов, их склонность к подхалимству может масштабно изменить социальное взаимодействие, делая нас менее склонными к компромиссам и самокритике. Что греха таить, люди часто, понимая неправильность своих действий, осознанно ищут поддержки не там, где им дадут правильный совет или адекватную оценку, а там, где помогут оправдать себя. И вот, пожалуйста, ваш новый друг – ИИ. Ученые еще раз напоминают о необходимости повышения критической грамотности пользователей: ответы ИИ – это всего лишь алгоритмы, не надо принимать их за чистую монету. Если без совета никак, идти за ним надо к реальным людям, которые лучше оценят ситуацию. Да, это не так приятно. Но они снимут с вас розовые очки и вернут в реальность. Разработчики же должны создавать ИИ, который будет давать полезные советы, а не подлизывать пользователям.
2 дня назад