Идея звучит заманчиво: открыть чат, описать свои переживания — и получить поддержку, почти как на приёме у психолога. Но новое исследование показывает, что такие системы могут нарушать базовые правила психотерапевтической этики. Работу провели специалисты из Университета Брауна (Brown University). Учёные обнаружили, что даже когда большие языковые модели получают инструкции «вести себя как терапевт», их ответы часто противоречат стандартам профессиональной психотерапии. Сегодня многие пользователи обсуждают личные проблемы с чат-ботами, иногда воспринимая их как альтернативу психологической помощи. В социальных сетях нередко распространяются инструкции — так называемые prompts — которые якобы позволяют превратить ИИ в специалиста по когнитивно-поведенческой или диалектической терапии. Однако команда под руководством Зайнаб Ифтихар (Zainab Iftikhar) решила выяснить: может ли одна лишь правильная формулировка запроса действительно сделать ответы ИИ безопасными в клиническом смысле. Резул
Может ли ChatGPT заменить психотерапевта? Новое исследование показало серьёзные этические риски
2 дня назад2 дня назад
13
3 мин