Чат-боты на базе искусственного интеллекта часто поддерживают идеи пользователей, даже когда они опасны или иррациональны. К такому выводу пришли исследователи Стэнфордского университета в работе Characterizing Delusional Spirals through Human-LLM Chat Logs, пишет Financial Times. Чат-боты соглашались с пользователями примерно в 65% случаев. В 15% сообщений проявлялись признаки «бредового мышления», но чат-боты соглашались с ними более чем в половине случаев. Почти в 38% ответов ИИ приписывал пользователям необычную важность их личности или особые способности, называя их гениями или уникально талантливыми. При этом исследование показало, что, когда люди сообщали о суицидальных мыслях, чат-бот чаще сочувствовал им, признавал их чувства. В отдельных случаях он поощрял членовредительство (или селфхарм). При агрессивных высказываниях ИИ стимулировал причинение вреда в 10% случаев, но в половине разговоров препятствовал опасным действиям или направлял пользователей за помощью к внешним исто
Стэнфордский университет: ИИ чат-боты могут поддерживать суицидальные мысли
18 марта18 мар
3
3 мин