Найти в Дзене
Наука7

ChatGPT в роли психотерапевта? Новое исследование выявило серьезные этические риски

По мере того как все больше людей обращаются за консультациями по вопросам психического здоровья к ChatGPT и другим большим языковым моделям (БЯМ), новые исследования показывают, что эти чат-боты с искусственным интеллектом могут быть не готовы к такой роли. Исследование показало, что даже при указании использовать традиционные психотерапевтические подходы системы не соответствуют стандартам

Чат-боты с искусственным интеллектом могут казаться сострадательными, но новое исследование показывает, что они часто нарушают этические нормы, которых должны придерживаться настоящие терапевты.
Чат-боты с искусственным интеллектом могут казаться сострадательными, но новое исследование показывает, что они часто нарушают этические нормы, которых должны придерживаться настоящие терапевты.

По мере того как все больше людей обращаются за консультациями по вопросам психического здоровья к ChatGPT и другим большим языковым моделям (БЯМ), новые исследования показывают, что эти чат-боты с искусственным интеллектом могут быть не готовы к такой роли. Исследование показало, что даже при указании использовать традиционные психотерапевтические подходы системы не соответствуют стандартам профессиональной этики.

Исследователи из Университета Брауна, тесно сотрудничающие со специалистами в области психического здоровья, выявили повторяющиеся паттерны проблемного поведения. В ходе тестирования чат-боты допускали ошибки в кризисных ситуациях, давали ответы, которые укрепляли ложные представления пользователей о себе и других людях, а также использовали формулировки, которые создавали видимость эмпатии без подлинного понимания.

«В этой работе мы представляем основанную на практическом опыте систему из 15 этических рисков, чтобы продемонстрировать, как чат-боты-консультанты нарушают этические стандарты в сфере охраны психического здоровья, сопоставляя поведение модели с конкретными этическими нарушениями, — пишут исследователи в своей работе. — Мы призываем к дальнейшим исследованиям, направленным на создание этических, образовательных и правовых стандартов для чат-ботов-консультантов — стандартов, отражающих качество и строгость подхода, необходимых для психотерапии с участием человека».

Результаты исследования были представлены на конференции AAAI/ACM по искусственному интеллекту, этике и обществу. Исследовательская группа связана с Центром технологической ответственности, переосмысления и редизайна при Университете Брауна.

Как подсказки влияют на ответы ИИ в терапии

Зайнаб Ифтихар, аспирантка факультета компьютерных наук в Университете Брауна, которая руководила исследованием, задалась целью выяснить, могут ли тщательно сформулированные подсказки помочь системам искусственного интеллекта вести себя более этично в сфере охраны психического здоровья. Подсказки — это письменные инструкции, призванные управлять результатами работы модели без ее переобучения или добавления новых данных.

«Подсказки — это инструкции, которые даются модели, чтобы направить ее поведение в нужное русло для выполнения конкретной задачи, — говорит Ифтихар. — Вы не меняете базовую модель и не предоставляете новые данные, но подсказка помогает направить работу модели в нужное русло на основе уже имеющихся у нее знаний и изученных закономерностей».

Например, пользователь может дать модели такую команду: «Выступи в роли когнитивно-поведенческого терапевта и помоги мне переосмыслить свои мысли» или «Используй принципы диалектической поведенческой терапии, чтобы помочь мне понять свои эмоции и научиться ими управлять». Хотя эти модели не применяют терапевтические методы так, как это сделал бы человек, они используют усвоенные паттерны для генерации ответов, соответствующих концепциям когнитивно-поведенческой терапии или диалектической поведенческой терапии, в зависимости от введенной команды.

Люди регулярно делятся этими подсказками на таких платформах, как TikTok, Instagram и Reddit. Помимо индивидуальных экспериментов, многие чат-боты, помогающие потребителям в вопросах психического здоровья, создаются путем добавления подсказок, связанных с терапией, в большие языковые модели общего назначения. Поэтому особенно важно понять, может ли использование одних только подсказок сделать консультирование с помощью ИИ более безопасным.

Тестирование чат-ботов с искусственным интеллектом в условиях имитации консультирования

Чтобы оценить работу систем, исследователи наблюдали за семью опытными консультантами, имеющими опыт применения когнитивно-поведенческой терапии. Эти консультанты проводили сеансы самоконсультирования с использованием моделей искусственного интеллекта, которые выступали в роли когнитивно-поведенческих терапевтов. Среди протестированных моделей были версии GPT от OpenAI, Claude от Anthropic и Llama от Meta.

Затем команда отобрала смоделированные чаты на основе реальных консультаций. Три лицензированных клинических психолога изучили расшифровки, чтобы выявить возможные нарушения этических норм.

Анализ выявил 15 конкретных рисков, которые были разделены на пять основных категорий:

  • Недостаточная адаптация к контексту: игнорирование уникального жизненного опыта человека и предоставление общих советов.
  • Плохое терапевтическое взаимодействие: слишком настойчивое ведение беседы, иногда подкрепляющее неверные или вредные убеждения.
  • Обманчивое эмпатическое понимание: использование таких фраз, как «я тебя понимаю» или «я тебя вижу», для демонстрации эмоциональной связи без реального понимания.
  • Несправедливая дискриминация: проявление предвзятости по признаку пола, культуры или религии.
  • Отсутствие мер по обеспечению безопасности и антикризисному управлению: отказ от обсуждения деликатных тем, неспособность направить пользователей за необходимой помощью или неадекватная реакция на кризисные ситуации, в том числе на суицидальные мысли.

Проблема подотчётности в сфере психического здоровья, связанного с искусственным интеллектом

Ифтихар отметил, что психотерапевты тоже могут ошибаться. Главное отличие — невнимательность.

«Для психотерапевтов существуют руководящие советы и механизмы привлечения специалистов к профессиональной ответственности за жестокое обращение и халатность, — говорит Ифтихар. — Но когда подобные нарушения допускают чат-боты, регулирующих механизмов нет».

Исследователи подчеркивают, что их выводы не означают, что искусственному интеллекту не место в сфере охраны психического здоровья. Инструменты на основе искусственного интеллекта могут помочь расширить доступ к медицинской помощи, особенно для тех, кто сталкивается с высокими расходами или нехваткой лицензированных специалистов. Однако исследование подчеркивает необходимость четких мер предосторожности, ответственного подхода к внедрению и более строгих нормативных требований, прежде чем полагаться на эти системы в ситуациях, когда на карту поставлено многое.

Ифтихар надеется, что эта работа научит людей быть осторожными.

«Если вы разговариваете с чат-ботом о психическом здоровье, вот на что следует обратить внимание», — сказала она.

Почему важна тщательная оценка

Элли Павлиц, профессор компьютерных наук в Университете Брауна, не принимавшая участия в исследовании, сказала, что оно подчеркивает важность тщательной проверки систем искусственного интеллекта, используемых в таких деликатных областях, как психическое здоровье. Павлиц возглавляет ARIA — исследовательский институт искусственного интеллекта при Университете Брауна, финансируемый Национальным научным фондом и специализирующийся на создании надежных ИИ-помощников.

«Реальность современного искусственного интеллекта такова, что создавать и внедрять системы гораздо проще, чем оценивать и понимать их, — говорит Павлик. — Для того чтобы продемонстрировать эти риски, потребовалась команда клинических экспертов и исследование, которое длилось больше года. Большинство современных разработок в области искусственного интеллекта оцениваются с помощью автоматических метрик, которые по своей сути статичны и не учитывают человеческий фактор».

Она добавила, что это исследование может послужить образцом для будущих работ, направленных на повышение безопасности инструментов искусственного интеллекта для поддержания психического здоровья.

«У искусственного интеллекта есть реальная возможность внести свой вклад в борьбу с кризисом психического здоровья, с которым сталкивается наше общество, но крайне важно, чтобы мы уделяли время тщательной критике и оценке наших систем на каждом этапе, чтобы не навредить больше, чем помочь, — сказал Павлик. — Эта работа — хороший пример того, как это может выглядеть».