Все больше людей обращаются к ChatGPT и другим чат-ботам за психологической поддержкой. В соцсетях распространяются инструкции о том, как «настроить» ИИ под роль личного терапевта. Некоторые исследования даже указывают, что нейросети способны оказывать базовую помощь в формате самоподдержки. Однако новое исследование Брауновского университета показало: при попытке работать в роли психотерапевта ИИ систематически нарушает профессиональные стандарты. В эксперименте участвовали популярные модели из семейств GPT (OpenAI), Claude (Anthropic) и Llama (Meta). Семь обученных консультантов провели с ними сессии самопомощи, задав чат-ботам роль когнитивно-поведенческого терапевта. Затем три лицензированных клинических психолога проанализировали записи бесед на предмет соблюдения этических норм. Вывод оказался однозначным: в работе чат-ботов выявили 15 типов рисков, объединённых в пять ключевых категорий. 1. Отсутствие адаптации к контексту
ИИ часто игнорирует уникальные обстоятельства человека