Согласно новому исследованию, изучающему опасность того, что ИИ говорит людям то, что они хотят услышать, чат-боты с искусственным интеллектом настолько склонны льстить и одобрять своих пользователей, что дают плохие советы, которые могут навредить отношениям и укрепить вредное поведение. В журнале Science опубликовали исследование, в котором проверили 11 популярных систем ИИ. Выяснилось, что все они склонны к подхалимству — чрезмерной благосклонности и одобрению. Проблема не только в неуместных советах, но и в том, что люди доверяют ИИ больше, когда чат-боты отстаивают свои убеждения. «Это создает порочный круг: черта, которая вредит, также стимулирует вовлеченность», — отмечают ученые из Стэнфордского университета. Исследование также показало, что технологические недостатки, связанные с бредовыми и суицидальными мыслями у уязвимых групп, встречаются и в других ситуациях взаимодействия с чат-ботами. Это так незаметно, что люди могут не обратить внимания. Особенно опасно для молодых лю