В этой статье хочется затронуть вопрос, какую роль нейросети могут играть в психотерапии и могут ли они быть полезны самому терапевту [1,2].
Начнем с того, что показывают современные исследования.
Искусственный интеллект рассматривается сейчас как инструмент поддержки работы психотерапевта, систему, которая помогает анализировать материал терапии, структурировать диалоги и обнаруживать повторяющиеся паттерны взаимодействия.
Во‑первых, изучается возможность анализа терапевтических диалогов. Несколько работ показывают, что языковые модели способны автоматически выделять темы разговоров, эмоциональные маркеры и повторяющиеся паттерны взаимодействия в сессиях. Это может помогать специалисту замечать динамику клиента и возвращающиеся мотивы, которые трудно удерживать в памяти на протяжении долгой серии встреч [1].
Во‑вторых, исследуется использование AI для структурирования терапевтического материала. В публикациях последних лет описываются системы, которые способны автоматически суммировать сессии, выделять ключевые темы разговора и помогать отслеживать изменения в ходе терапии. Такие инструменты рассматриваются как форма «второго взгляда» на материал сессии, а не как автономный терапевтический агент [2].
Отдельное направление исследований связано с безопасностью и корректностью ответов моделей. Поскольку языковые модели могут генерировать правдоподобную, но неверную информацию, разработчики пытаются уменьшить риск таких ошибок. Для этого используется обучение на человеческой обратной связи (RLHF): эксперты оценивают варианты ответов модели и помогают системе выбирать более аккуратные и безопасные формулировки [4].
Также активно обсуждается проблема конфиденциальности терапевтических данных. Поскольку разговоры о психическом состоянии содержат крайне чувствительную информацию, исследователи предлагают архитектуры, в которых данные остаются у пользователя. [5]
Наконец, в ряде работ рассматриваются многоагентные системы, где несколько моделей выполняют разные роли: одна анализирует структуру диалога, другая оценивает эмоциональный тон, третья проверяет безопасность ответов. Такой подход напоминает своеобразный «консилиум» внутри системы [6].
Ниже я хочу поделиться тем, как эти подходы отражаются в моей собственной практике.
В моей работе искусственный интеллект применяется как аналитический инструмент для разбора уже состоявшихся сессий.
При этом я сознательно использую локальные модели, которые работают непосредственно на моем компьютере, а не облачные сервисы. Это требует выстраивания отдельной системы защиты данных: изоляции файлов, локального хранения транскрипций, контроля доступа и настройки среды, в которой модель обрабатывает текст. Такой подход делает работу технически сложнее, но позволяет сохранить конфиденциальность терапевтического материала.
Один из способов использования - анализ транскрипций. Иногда я пропускаю записи разговоров через языковую модель и смотрю, какие паттерны она обнаруживает. Модель может выделить повторяющиеся формулировки клиента, устойчивые темы или моменты, где аффект неожиданно сменяется рациональными объяснениями.
Иногда система замечает довольно простые вещи, которые почему‑то не бросаются в глаза во время самой сессии. Например, что клиент регулярно возвращается к одной и той же метафоре или использует одинаковые слова в разных жизненных ситуациях. Когда это видишь в структурированном виде, разговор начинает выглядеть иначе.
Еще один способ работы, который мне нравится: прогон одного и того же фрагмента диалога через разные терапевтические оптики. Например, можно попросить модель посмотреть на эпизод так, как мог бы на него отреагировать гештальт‑терапевт, психоаналитик или когнитивно‑поведенческий терапевт. Получаются разные интерпретационные гипотезы. Иногда это одна модель с разными интерпретационными ролями, а иногда - разные модели, дающие разные типы анализа.
Разумеется, это не замена профессиональной интерпретации. Но такой способ иногда помогает увидеть дополнительные углы зрения и расширить собственную гипотезу о происходящем в терапии.
По моему опыту, именно в такой роли эти технологии оказываются наиболее полезными: как инструмент анализа, расширения гипотез и дополнительного взгляда на терапевтический материал.
Метафора, вынесенная в заголовок, кажется мне наиболее точной: нейросеть не заменяет терапевта и не ставит диагнозов, но помогает увидеть уже произошедшее с другой стороны.
Библиография
- Torous J, Bucci S, Bell IH, et al. The growing field of digital psychiatry: current evidence and the future of apps, social media, chatbots, and virtual reality. World Psychiatry. 2021;20(3):318–335.
- Abd‑Alrazaq A, Alajlani M, Alalwan AA, et al. User experience and safety of generative AI‑based mental health chatbots: protocol for a systematic review. JMIR Research Protocols. 2024;13:e51235.
- Torous J, Bucci S. Is this chatbot safe and evidence‑based? A call for the critical evaluation of AI mental health tools. Journal of Medical Internet Research. 2025;27:e69534.
- Ji Z, Lee N, Frieske R, et al. Survey of hallucination in natural language generation. ACM Computing Surveys. 2023;55(12):1–38.
- Yang X, Liu Y, et al. Privacy‑preserving artificial intelligence in healthcare: a review of techniques and applications. NPJ Digital Medicine. 2023;6:30.
- Park JS, O’Brien J, Cai CJ, et al. Generative agents: interactive simulacra of human behavior. Proceedings of the 2023 CHI Conference on Human Factors in Computing Systems. 2023.
Автор: Пинскер Борис Эмануилович
Врач-психотерапевт, Супервизор
Получить консультацию автора на сайте психологов b17.ru