Найти в Дзене
Цифровой Океан

Терапия без лицензии? ИИ-чатботы не прошли проверку на профессиональную этику

Все больше людей обращаются к ChatGPT и другим чат-ботам за психологической поддержкой. В соцсетях распространяются инструкции о том, как «настроить» ИИ под роль личного терапевта. Некоторые исследования даже указывают, что нейросети способны оказывать базовую помощь в формате самоподдержки. Однако новое исследование Брауновского университета показало: при попытке работать в роли психотерапевта ИИ систематически нарушает профессиональные стандарты. В эксперименте участвовали популярные модели из семейств GPT (OpenAI), Claude (Anthropic) и Llama (Meta). Семь обученных консультантов провели с ними сессии самопомощи, задав чат-ботам роль когнитивно-поведенческого терапевта. Затем три лицензированных клинических психолога проанализировали записи бесед на предмет соблюдения этических норм. Вывод оказался однозначным: в работе чат-ботов выявили 15 типов рисков, объединённых в пять ключевых категорий. 1. Отсутствие адаптации к контексту
ИИ часто игнорирует уникальные обстоятельства человека
Оглавление

Все больше людей обращаются к ChatGPT и другим чат-ботам за психологической поддержкой. В соцсетях распространяются инструкции о том, как «настроить» ИИ под роль личного терапевта. Некоторые исследования даже указывают, что нейросети способны оказывать базовую помощь в формате самоподдержки.

Однако новое исследование Брауновского университета показало: при попытке работать в роли психотерапевта ИИ систематически нарушает профессиональные стандарты.

Photo by Steve Johnson on Unsplash
Photo by Steve Johnson on Unsplash

Как проверяли «ИИ-терапевтов»

В эксперименте участвовали популярные модели из семейств GPT (OpenAI), Claude (Anthropic) и Llama (Meta). Семь обученных консультантов провели с ними сессии самопомощи, задав чат-ботам роль когнитивно-поведенческого терапевта.

Затем три лицензированных клинических психолога проанализировали записи бесед на предмет соблюдения этических норм.

Вывод оказался однозначным: в работе чат-ботов выявили 15 типов рисков, объединённых в пять ключевых категорий.

Пять главных проблем

1. Отсутствие адаптации к контексту

ИИ часто игнорирует уникальные обстоятельства человека и предлагает универсальные, шаблонные советы.

2. Слабое терапевтическое сотрудничество

Чат-боты склонны навязывать направление беседы и иногда подкрепляют ошибочные или потенциально вредные убеждения.

3. Иллюзия эмпатии

Фразы вроде «я вас понимаю» создают ощущение поддержки, но за ними не стоит реального эмоционального восприятия. Это может формировать ложное чувство связи.

4. Предвзятость

Исследователи зафиксировали случаи дискриминации по признакам пола, культуры или религии — эффект, связанный с особенностями обучающих данных.

5. Риски для безопасности

В кризисных ситуациях — например, при упоминании суицидальных мыслей — ИИ нередко реагировал неадекватно и не перенаправлял пользователя к живым специалистам.

Photo by Google DeepMind on Unsplash
Photo by Google DeepMind on Unsplash

Проблема ответственности

Как отметила руководитель исследования Зайнаб Ифтихар, у психотерапевтов-людей существуют механизмы профессиональной ответственности и надзор. В случае ошибок есть регуляторные инструменты и стандарты практики.

Для ИИ-консультантов подобных рамок пока не существует. Это создаёт риски, особенно когда речь идёт о работе с уязвимыми людьми.

ИИ — помощник, но не замена

Авторы подчёркивают: искусственный интеллект не следует полностью исключать из сферы психического здоровья. Он может расширить доступ к поддержке, особенно в регионах, где не хватает специалистов, или для людей, не имеющих возможности оплачивать терапию.

Однако до полноценной интеграции в клиническую практику необходимы чёткие стандарты безопасности и механизмы оценки эффективности.

Профессор Брауновского университета Элли Павлик отмечает: сегодня создать ИИ-систему проще, чем объективно проверить её надёжность. Технология способна помочь в условиях глобального кризиса психического здоровья — но без тщательной проверки она может причинить вред.