Знаете ли вы, что теперь платформы для психологической поддержки называют ИИ-психологами?
Автор одной из статей, посвященных обзору платформ для психологической помощи, пишет, что «анонимный ИИ психолог уже перестал быть экзотикой и превратился в полноценную альтернативу традиционной терапии для тех, кто ценит конфиденциальность и мгновенную доступность помощи. Правильный выбор чата с ИИ психологом может стать поворотным моментом в вашем личностном развитии и решении накопившихся проблем».
Действительно, мировая паутина переполнена приложениями и чат-ботами для мониторинга и диагностики психологического состояния и даже имитации диалогов с психологом.
Но насколько эффективно и безопасно их использование?
Специалисты в области психического здоровья бьют тревогу в связи с тем, что люди в кризисных состояниях все чаще обращаются за помощью к ИИ.
Как отмечает доктор психологических наук, профессор РАН Т. Нестик, наряду с очевидными преимуществами психологических чат-ботов, а именно, возможность оперативного получения психологической помощи при ее низкой стоимости, существуют риски их использования.
Новейшие исследования показывают, что, несмотря на способность генеративного ИИ моделировать терапевтический диалог, обеспечивать общение 24/7 и помогать с когнитивной поддержкой пациентов, чат-боты могут способствовать возникновению или обострению психотических симптомов: так называемого «психоза искусственного интеллекта» или «психоза ChatGPT», усиливая бредовые или грандиозные мысли, особенно у лиц, уязвимых к психозу, размывая границы реальности и нарушая саморегуляцию.
Языковые модели функционируют в основном путем предсказания следующего слова, опираясь на тренировочные данные, обучение с подкреплением и ответы пользователей при формировании новых выводов. Так как чат-боты ориентированы на вовлеченность пользователей, они склонны проявлять угодливость – то есть чрезмерно соглашаться и подтверждать мнения пользователей, даже когда те ошибаются или нездоровы, - говорит Кит Саката, психиатр-исследователь из Калифорнийского университета в Сан-Франциско.
Более того, уже известно о нескольких случаях суицида, совершенного в результате общения или под влиянием виртуальных терапевтических ассистентов. Например, история 16-тилетнего Адама Рэйна https://www.theguardian.com/us-news/2025/aug/29/chatgpt-suicide-openai-sam-altman-adam-raine
Помимо этого, специалисты указывают на риски, связанные с утечкой конфиденциальной информации и персональных данных при использовании ИИ. Ведь в настоящее время ИИ не подчиняется ни правовым, ни этическим нормам оказания психологической помощи.
А самое главное, что созданные для ИИ алгоритмы не способны учитывать индивидуальные особенности личности человека, чат-боты не могут испытывать эмпатию (без которой психотерапия невозможна!) и не могут правильно определять и интерпретировать психологическое состояние человека (ведь для этого психолог задействует несколько каналов восприятия: визуальные, аудиальные и кинестетические).
Конечно, есть люди, которые называют претензии к ИИ-психологам «охотой на ведьм». Однако и они соглашаются с тем, что при достигнутом уровне развития нейросети не способны заменить полноценную психологическую помощь и рекомендуют обращаться за ней к специалистам.
❓А как вы относитесь к использованию ИИ для психологической помощи и поддержки? Может ли он, на ваш взгляд, заменить психолога?