ИИ в психиатрии и психотерапии: от VR-аватаров до этических стоп-сигналов
Психотерапия переживает странную эволюцию: у «дивана» появляется
цифровая тень. На одной чаше весов — доступность и масштабируемость
помощи, на другой — доверие, этика и безопасность. Где проходит граница
допустимого?
Cedars-Sinai: VR-аватары и «Xaia» — терапия как переживание
В
Cedars-Sinai пошли дальше обычных чат-ботов и собрали «иммерсивного
терапевта» Xaia для Apple Vision Pro: пациент общается с ИИ-аватаром в
виртуальном пространстве, а диалог выстроен на основе терапевтических
протоколов и сотен стенограмм, созданных и отобранных клиницистами.
Авторы подчёркивают: это дополнение, а не замена живого психотерапевта —
попытка закрыть дефицит доступа, когда на «раз в неделю» физически не
хватает специалистов. По данным самого центра, ранние пилоты показывают
хорошую переносимость и желание пациентов возвращаться к VR-сеансам. В
январе 2025 Cedars-Sinai опубликoвал сводку двух исследований: ИИ может
быть эффективным инструментом поддержки психотерапии, включая форматы с
аватаром; при этом акцент — на этичном дизайне и клиническом надзоре.
Осенью локальные СМИ Лос-Анджелеса показывали кейсы хронической боли и
тревоги, где Xaia использовалась как дополнительная помощь между
сессиями. (https://www.cedars-sinai.org/newsroom/can-ai-improve-mental-health-therapy/)
Первое клиническое испытание Therabot: что показал рандомизированный дизайн?
Команда
Дартмутского колледжа провела первое рандомизированное клиническое
испытание генеративного ИИ-«терапевта» (Therabot) и опубликовала
результаты в NEJM AI (март 2025). Участники с депрессивной и
тревожной симптоматикой, а также риском РПП, получали доступ к боту в
течение нескольких недель; по итогам зафиксировано существенное
улучшение симптомов по стандартизированным шкалам. Авторы осторожны в
выводах: технология перспективна для масштабирования помощи, но нужны
более крупные выборки и репликации, а также строгий клинический
контроль. (home.dartmouth.edu)
Параллельно
в реестре клинических исследований появились протоколы, где Therabot
тестируют в специфических сценариях (например, тревога/сниженное
настроение при сопутствующем употреблении каннабиса) — это сигнал, что
исследовательское поле быстро дифференцируется по нозологиям и
контекстам. (clinicaltrials.gov)
Предостережения: что не так с «цифровыми терапевтами»?
Стэнфорд
в июне 2025 опубликовал предостерегающую работу: LLM-боты
«психотерапевты» способны воспроизводить стигматизирующие ответы и, в
крайних случаях, давать опасные рекомендации, например при суицидальном
контенте. Исследователи подчёркивают: место ИИ — в поддерживающих
задачах (скрининг, документация, стандартизированные «пациенты» для
обучения), но не в самостоятельной терапии и тем более кризисном
реагировании. (news.stanford.edu)
USC
в тот же день опубликовал результаты о «распаде раппорта»: большие
языковые модели хуже людей выстраивают лингвистическое
взаимонастраивание (entrainment) — тонкую подстройку ритма, лексики и
эмоций, без которой терапевтический альянс проседает. Отсюда простой
вывод: язык — не всё; без «синхронии» разговор лечит хуже. (USC Viterbi | School of Engineering)
Это
согласуется с находками вычислительной лингвистики: анализ диалогов в
ключе CBT показывает, что LLM уступают как профессионалам, так и
обученным помощникам именно по метрикам энтрейнмента; авторы предлагают
использовать эти метрики как объективные индикаторы «человечности»
ответа в цифровой психотерапии. (aclanthology.org)
Наконец,
новые данные RAND о поведении популярных чат-ботов при вопросах о
суициде: системы в целом неплохо справляются с «очевидно безопасными» и
«очевидно опасными» сценариями, но нестабильны на промежуточных уровнях
риска, где как раз и нужна тонкая оценка и эскалация. Это ещё один
аргумент против автономной «цифровой скорой помощи». (rand.org)
Где проходит граница доверия?
Если
отбросить хайп, картина вырисовывается трезвая. Где ИИ уместен прямо
сейчас: самопомощь между сессиями, напоминания, дневники,
психообразование; «симуляторы пациентов» для обучения клиницистов;
ассистенты для рутинной документации, выписок и маршрутизации пациентов.
Cedars-Sinai подчёркивает дополняющий характер VR-аватаров; клинические
пилоты показывают приемлемость, а не замену терапии. (cedars-sinai.org).
Где нужен строгий клинический контур: первичная диагностика и ведение
умеренной/тяжёлой депрессии, тревоги, РПП, ПТСР; всё, что связано с
суицидальным риском или психозом; работа с уязвимыми группами (подростки
и молодые взрослые). Метрики качества для «цифрового терапевта»: не
только клинические шкалы, но и лингвистическая синхронность;
устойчивость на пограничных кейсах (контрольные «вилочки» риска);
прозрачность источников, фиксация решений, пути подхода к человеку.
Этическое правило коротко
Не обещать то, чего нет. Чётко маркировать систему как ИИ-помощника, а не терапевта. Кнопка «немедленной эскалации» — на видном месте. (news.stanford.edu). Контекст важнее текста. Локальные рекомендации по кризисной помощи, проверка триггеров, чёрные списки «опасных подсказок». (https://www.rand.org/news/press/2025/08/ai-chatbots-inconsistent-in-answering-questions-about.html). Учёт уязвимости. Отдельные протоколы для подростков и молодых пользователей; Stanford прямо называет пары «ИИ-друг + молодёжь» опасной смесью. (Stanford Medicine). Надзор и аудит. Клинический куратор, логирование, внешние аудиторы, регулярные стресс-тесты на предвзятость и «галлюцинации». (news.stanford.edu)
Чему учит нас «цифровая тень»?
ИИ
уже может поддерживать терапию — как костыль между сессиями, как
тренажёр, как блокнот. Но быть терапевтом он пока не может: ему не
хватает раппорта, стабильности в серых зонах риска и ответственности.
Значит, мудрая стратегия — не искать в машине душу, а проектировать
интерфейсы доверия: с лестницами эскалации к человеку, прозрачной
логикой и понятными пределами. И да — это не отменяет главного: иногда
человеку нужен живой взгляд и пауза, в которой тебя по-человечески
услышали.
Ярослав Богданов