Найти в Дзене
Мedical Insider

Может ли ChatGPT заменить психотерапевта? Новое исследование показало серьёзные этические риски

Идея звучит заманчиво: открыть чат, описать свои переживания — и получить поддержку, почти как на приёме у психолога. Но новое исследование показывает, что такие системы могут нарушать базовые правила психотерапевтической этики. Работу провели специалисты из Университета Брауна (Brown University). Учёные обнаружили, что даже когда большие языковые модели получают инструкции «вести себя как терапевт», их ответы часто противоречат стандартам профессиональной психотерапии. Сегодня многие пользователи обсуждают личные проблемы с чат-ботами, иногда воспринимая их как альтернативу психологической помощи. В социальных сетях нередко распространяются инструкции — так называемые prompts — которые якобы позволяют превратить ИИ в специалиста по когнитивно-поведенческой или диалектической терапии. Однако команда под руководством Зайнаб Ифтихар (Zainab Iftikhar) решила выяснить: может ли одна лишь правильная формулировка запроса действительно сделать ответы ИИ безопасными в клиническом смысле. Резул
Оглавление

Идея звучит заманчиво: открыть чат, описать свои переживания — и получить поддержку, почти как на приёме у психолога. Но новое исследование показывает, что такие системы могут нарушать базовые правила психотерапевтической этики.

Работу провели специалисты из Университета Брауна (Brown University). Учёные обнаружили, что даже когда большие языковые модели получают инструкции «вести себя как терапевт», их ответы часто противоречат стандартам профессиональной психотерапии.

Почему исследователи решили проверить «ИИ-терапию»

Сегодня многие пользователи обсуждают личные проблемы с чат-ботами, иногда воспринимая их как альтернативу психологической помощи. В социальных сетях нередко распространяются инструкции — так называемые prompts — которые якобы позволяют превратить ИИ в специалиста по когнитивно-поведенческой или диалектической терапии.

Однако команда под руководством Зайнаб Ифтихар (Zainab Iftikhar) решила выяснить: может ли одна лишь правильная формулировка запроса действительно сделать ответы ИИ безопасными в клиническом смысле.

Результаты исследования были представлены на AAAI/ACM Conference on Artificial Intelligence, Ethics and Society — одной из ведущих международных конференций по вопросам этики искусственного интеллекта.

Как проверяли поведение чат-ботов

В исследовании участвовали семь обученных консультантов, знакомых с принципами когнитивно-поведенческой терапии. Они проводили симулированные консультации с несколькими крупными языковыми моделями.

После этого записи диалогов изучили три лицензированных клинических психолога. Их задача была простой: определить, где ответы ИИ нарушают профессиональные стандарты психотерапии.

В итоге учёные выделили 15 типов этических рисков, которые регулярно повторялись в диалогах.

Какие проблемы выявили

Исследователи сгруппировали риски в несколько категорий.

1. Отсутствие учёта контекста
Чат-боты часто давали универсальные советы, игнорируя личные обстоятельства пользователя.

2. Слабое терапевтическое сотрудничество
Иногда ответы слишком навязчиво направляли разговор или, наоборот, поддерживали ошибочные убеждения.

3. «Фальшивая эмпатия»
Фразы вроде «я понимаю» или «мне жаль, что вам больно» создавали иллюзию сочувствия, хотя реального понимания у системы нет.

4. Предвзятость
В некоторых случаях ответы демонстрировали культурные или гендерные перекосы.

5. Ошибки при кризисных ситуациях
Особенно тревожными оказались реакции на тяжёлые темы — например, связанные с суицидальными мыслями. Иногда системы не направляли пользователя к профессиональной помощи или давали недостаточно корректные ответы.

Главная проблема — отсутствие ответственности

Авторы исследования подчёркивают: человеческие терапевты тоже могут ошибаться. Но в их случае существуют профессиональные ассоциации, лицензирование и юридическая ответственность.

В случае с ИИ ситуация другая: пока нет чётких нормативных механизмов, которые регулировали бы такие системы.

Может ли ИИ всё-таки помочь психическому здоровью

Учёные не утверждают, что искусственный интеллект бесполезен в сфере психического здоровья. Наоборот, такие технологии могут помочь людям, которые сталкиваются с высокой стоимостью терапии или нехваткой специалистов.

Однако исследование показывает, что использовать чат-боты как полноценную замену психотерапии пока преждевременно.

Почему эти исследования особенно важны

Развитие ИИ всё активнее затрагивает медицинскую и психологическую сферу. Например, недавно стало известно, что искусственный интеллект может предсказывать биологический возраст и выживаемость пациентов с раком по фотографии лица — ещё один пример того, как алгоритмы начинают играть всё более значимую роль в медицине.

Именно поэтому, считают исследователи, внедрение подобных технологий должно сопровождаться строгими этическими и клиническими стандартами.

Вывод

ИИ-чат-боты способны имитировать язык психотерапии, но пока не способны полностью соблюдать её профессиональные нормы.

По мнению авторов исследования, прежде чем такие системы станут частью клинической практики, необходимо разработать чёткие этические правила, механизмы контроля и юридическую ответственность для разработчиков и сервисов.

Источник

  1. Zainab Iftikhar, Amy Xiao, Sean Ransom, Jeff Huang, Harini Suresh. How LLM Counselors Violate Ethical Standards in Mental Health Practice: A Practitioner-Informed Framework. Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society, 2025; 8 (2): 1311 DOI: 10.1609/aies.v8i2.36632