Чат-боты с искусственным интеллектом становятся сегодня одним из популярных средств в сфере психологической самопомощи. При этом в предоставлении терапии они неэффективны и часто могут давать даже вредоносные ответы, подвергая людей опасности. «Исследователи обнаружили, что большие языковые модели (LLM), такие как ChatGPT, по крайней мере в 20% случаев делали неуместные и опасные заявления людям, испытывающим бред, суицидальные мысли, галлюцинации и обсессивно-компульсивное расстройство», — пишет New York Post. По данным издания, боты с ИИ зачастую соглашаются со взглядами пользователей, так как были созданы, чтобы быть «послушными и льстивыми». В пример газета приводит случай, когда один из пользователей с шизофренией утверждал, что он мёртв, при этом несколько платформ с ИИ не смогли убедить его в обратном. «Низкокачественные терапевтические боты подвергают людей опасности из-за нормативного вакуума... Инструменты ИИ, какими бы сложными они ни были, полагаются на запрограммированные
NYP: психотерапия с использованием ИИ подвергает людей опасности
29 июня 202529 июн 2025
1
1 мин