Этика и вызовы психологу в эпоху технологий
В последнее время всё чаще слышится о том, что психотерапия «идёт в цифру»: онлайн-сессии, приложения, чат-боты, искусственный интеллект, «самотерапия» через приложение, всё это становится частью жизни многих людей. Как психолог и как человек, я воспринимаю эти процессы с интересом и тревогой одновременно. Я вижу, какие возможности даёт технология, и думаю серьёзные риски, от этого у меня поднимается тревога. В этой статье я делюсь своим взглядом, сомнениями и надеждами, и приглашаю вас, коллег, к диалогу.
Технологии и ИИ в терапии уже не футуризм, а реальность
Цифровые инструменты действительно расширяют доступность психотерапии. Люди с разными обстоятельствами: из отдалённых регионов, с плотным графиком, с ограниченными ресурсами могут получить поддержку через интернет, мессенджеры, приложения. Также технологии могут помочь облегчить часть логистики: запись, мониторинг, предварительные опросники, отслеживание настроения, и даже здоровья, что даёт психологу возможность сфокусироваться на контакте и глубоком взаимодействии. Для многих появился шанс получить помощь, упростить рабочий процесс, когда раньше это было недоступно. И я ценю такие возможности.
Но у этой «цифровой терапии» есть теневая сторона: этические и клинические риски
1. Риск утраты контакта, эмпатии. ИИ, роботы, чат-боты могут симулировать беседу, но они не способны по-настоящему воспринимать невербальные сигналы, эмоции, уникальность человека, отсутствует контакт. Часто «диалог» с алгоритмом оказывается поверхностным, стандартизированным, без реального присутствия, без тонкого отклика, без ответственности.
2. Проблемы приватности, конфиденциальности, безопасности данных. Мобильные приложения, платформы, чаты предполагают передачу личной, очень чувствительной информации. Но зачастую недостаточно прозрачности в том, как хранятся данные, кто имеет к ним доступ, как обеспечивается защита. Это не просто технический вопрос, для клиента это его психика, его доверие, его уязвимость.
3. Самодиагностика, зависимость, иллюзия терапии. При массовом наличии «терапевтических» приложений люди могут попробовать решить серьёзные проблемы самостоятельно без подготовленного специалиста. Это может вести к недостаточному выявлению рисков, неверной интерпретации симптомов, усилению тревоги, ложной уверенности. Я уже вижу в практике, как некоторые приходят после «самотерапии» с усиленной тревогой, усталостью, разочарованием.
4. Этика ответственности и границ или кто отвечает, если ИИ ошибается? Если чат-бот даёт рекомендацию, которая навредила, кто отвечает? Разработчик, терапевт, сама платформа? Также важно, что многие боты продвигаются как «терапия» или «помощь» без независимых проверок и доказательной базы.
Что, на мой взгляд, должно быть базой для ответственной психотерапии с технологиями
Я не призываю отказаться от технологий, вот что, как мне кажется, должно быть обязательным:
-Чёткое информированное согласие клиента что он знает, куда идут его данные, на что он соглашается, даже если это простой бот.
-Прозрачность: если используется ИИ или приложение объяснить, что это, как работает, где границы, как загружаются данные, источники информации и тд
-Алгоритмы должны выполнять роль только дополнения, не замена психолога или психотерапевта. В сложных, кризисных случаях возможен только живой контакт.
-Регулярная проверка и ответственность, кто отвечает за результаты, ошибки, утечку данных.
В исследованиях, посвящённых «воплощённому ИИ в психическом здоровье», учёные также указывают на необходимость тщательно продумывать, что и как внедряется с учётом автономии клиента, риска предвзятости, социальной ответственности, долгосрочных последствий: "Результаты: С этической точки зрения, важные преимущества Al в психическом здоровье включают в себя новые способы лечения, возможности привлечения труднодостижимых групп населения, лучшую реакцию пациентов и свободу времени для врачей. Всеобъемлющие этические вопросы и проблемы включают в себя: предотвращение вреда и различные вопросы этики данных; отсутствие рекомендаций по разработке приложений Al, их клинической интеграции и подготовке медицинских работников; «пробелы» в этических и нормативных рамках; возможность неправильного использования. Конкретные проблемы, выявленные и обсуждаемые при применении Al, включают в себя: вопросы оценки рисков, направления и надзора; необходимость уважения и защиты автономии пациента; роль алгоритмов в терапии; прозрачность в использовании алгоритмов; и конкретные проблемы, касающиеся долгосрочного воздействия этих приложений на понимание болезни и состояния человека."
Источник: PubMed
Что мне кажется необходимым делать уже сейчас
Я вижу несколько направлений, где каждый из нас может внести свой вклад:
Включать обсуждение технологий и ИИ в супервизии, при обучении, профессиональных группах. Быть открытыми, давать клиенту выбор: офлайн, онлайн, ИИ, живой контакт. Писать, делиться опытом, сомнениями, наблюдениями, так формировать профессиональное пространство, где технологии служат, а не заменяют. Поднимать стандарты: разрабатывать внутренние правила, подходящие к современному миру, реагировать на возможные нарушения.
Лично для меня это шанс и ответственность одновременноКогда я думаю о будущем психотерапии, я ощущаю, что технологии могут помочь, но только если мы с вами, психологи, будем внимательны, честны, ответственны.
Я не уверена, что «бот-терапевт» когда-то заменит живого человека. И, честно, не хочу, чтобы это происходило. Я хочу, чтобы ИИ, приложения, онлайн-инструменты были инструментами, помогали.
Я пишу это не как заявление истины, а как приглашение к диалогу.Мы вместе в этой профессии, в этом времени и от того, какие решения мы принимаем сегодня, зависит, какими мы будем завтра.
Если вам есть что добавить: опыты, сомнения, когда технологии помогли, а когда ..., я буду рада, если вы поделитесь.
Приглашаю беречь наше профессиональное пространство, и использовать технологии так, чтобы они служили человеку, а не заменяли его.
Автор: Озерова Наталья Владимировна
Психолог, Дефектолог
Получить консультацию автора на сайте психологов b17.ru