Добавить в корзинуПозвонить
Найти в Дзене

Заменит ли ИИ психолога?

Знаете ли вы, что теперь платформы для психологической поддержки называют ИИ-психологами?
Автор одной из статей, посвященных обзору платформ для психологической помощи, пишет, что «анонимный ИИ психолог уже перестал быть экзотикой и превратился в полноценную альтернативу традиционной терапии для тех, кто ценит конфиденциальность и мгновенную доступность помощи. Правильный выбор чата с ИИ

Знаете ли вы, что теперь платформы для психологической поддержки называют ИИ-психологами?

Автор одной из статей, посвященных обзору платформ для психологической помощи, пишет, что «анонимный ИИ психолог уже перестал быть экзотикой и превратился в полноценную альтернативу традиционной терапии для тех, кто ценит конфиденциальность и мгновенную доступность помощи. Правильный выбор чата с ИИ психологом может стать поворотным моментом в вашем личностном развитии и решении накопившихся проблем».

Действительно, мировая паутина переполнена приложениями и чат-ботами для мониторинга и диагностики психологического состояния и даже имитации диалогов с психологом.

Но насколько эффективно и безопасно их использование?

Специалисты в области психического здоровья бьют тревогу в связи с тем, что люди в кризисных состояниях все чаще обращаются за помощью к ИИ.

Как отмечает доктор психологических наук, профессор РАН Т. Нестик, наряду с очевидными преимуществами психологических чат-ботов, а именно, возможность оперативного получения психологической помощи при ее низкой стоимости, существуют риски их использования.

Новейшие исследования показывают, что, несмотря на способность генеративного ИИ моделировать терапевтический диалог, обеспечивать общение 24/7 и помогать с когнитивной поддержкой пациентов, чат-боты могут способствовать возникновению или обострению психотических симптомов: так называемого «психоза искусственного интеллекта» или «психоза ChatGPT», усиливая бредовые или грандиозные мысли, особенно у лиц, уязвимых к психозу, размывая границы реальности и нарушая саморегуляцию.

Языковые модели функционируют в основном путем предсказания следующего слова, опираясь на тренировочные данные, обучение с подкреплением и ответы пользователей при формировании новых выводов. Так как чат-боты ориентированы на вовлеченность пользователей, они склонны проявлять угодливость – то есть чрезмерно соглашаться и подтверждать мнения пользователей, даже когда те ошибаются или нездоровы, - говорит Кит Саката, психиатр-исследователь из Калифорнийского университета в Сан-Франциско.

Более того, уже известно о нескольких случаях суицида, совершенного в результате общения или под влиянием виртуальных терапевтических ассистентов. Например, история 16-тилетнего Адама Рэйна https://www.theguardian.com/us-news/2025/aug/29/chatgpt-suicide-openai-sam-altman-adam-raine

Помимо этого, специалисты указывают на риски, связанные с утечкой конфиденциальной информации и персональных данных при использовании ИИ. Ведь в настоящее время ИИ не подчиняется ни правовым, ни этическим нормам оказания психологической помощи.

А самое главное, что созданные для ИИ алгоритмы не способны учитывать индивидуальные особенности личности человека, чат-боты не могут испытывать эмпатию (без которой психотерапия невозможна!) и не могут правильно определять и интерпретировать психологическое состояние человека (ведь для этого психолог задействует несколько каналов восприятия: визуальные, аудиальные и кинестетические).

Конечно, есть люди, которые называют претензии к ИИ-психологам «охотой на ведьм». Однако и они соглашаются с тем, что при достигнутом уровне развития нейросети не способны заменить полноценную психологическую помощь и рекомендуют обращаться за ней к специалистам.

❓А как вы относитесь к использованию ИИ для психологической помощи и поддержки? Может ли он, на ваш взгляд, заменить психолога?