Представьте: три часа ночи, вас накрывает тревога, сердце колотится, мысли несутся по кругу. Записаться к психотерапевту прямо сейчас невозможно — ближайшее свободное окно через две недели. И тут в голову приходит мысль: «А что если просто написать ChatGPT?» Ведь он всегда доступен, не осуждает, не берёт денег и отвечает мгновенно. Звучит заманчиво, правда?
Именно так рассуждают миллионы людей по всему миру. По данным Американской психологической ассоциации (APA, 2025), всё больше людей обращаются к генеративным ИИ-чатботам — ChatGPT, Claude, Character.AI — не просто за информацией, а за эмоциональной поддержкой, за тем, что они воспринимают как терапию. И на первый взгляд кажется, что это работает: чатбот выслушает, посочувствует, предложит техники когнитивно-поведенческой терапии. Но за этим фасадом кроются серьёзные риски, которые подтверждают всё новые научные исследования.
Сегодня мы разберём, что на самом деле происходит, когда люди доверяют своё психическое здоровье алгоритмам, какие опасности выявили учёные и где проходит граница между полезным инструментом и иллюзией помощи.
Почему люди обращаются к чатботам за психологической помощью
Причины, по которым люди выбирают ИИ вместо живого терапевта, вполне понятны и по-человечески объяснимы. Во-первых, это доступность. Нехватка специалистов в области психического здоровья — глобальная проблема. По данным APA, почти половина опрошенных психологов сообщают, что не справляются с потоком пациентов — в 2020 году эта цифра составляла 30%, а к 2025 году выросла почти до 50%. Очереди на приём к психотерапевту могут составлять недели и месяцы, а в сельских районах специалистов может не быть вовсе.
Во-вторых, стигма. Несмотря на то что отношение к психотерапии постепенно меняется к лучшему, для многих людей обращение к психологу по-прежнему сопряжено со стыдом и страхом быть осуждённым. Чатбот же кажется безопасным пространством: он не расскажет знакомым, не посмотрит осуждающе, не поставит диагноз в медицинскую карту.
В-третьих, финансовый барьер. Стоимость психотерапии может быть ощутимой нагрузкой на бюджет, особенно если речь идёт о длительном курсе. ChatGPT же «бесплатен» и всегда под рукой.
И наконец, мгновенность отклика. В моменты острого эмоционального переживания — панической атаки, приступа тревоги, бессонницы — хочется получить поддержку немедленно, а не через неделю на приёме. Чатбот отвечает за секунды.
Все эти причины реальны и заслуживают уважения. Проблема не в том, что люди ищут помощь, а в том, что они могут получить нечто, лишь имитирующее помощь, — и при этом подвергнуться настоящим рискам.
Пятнадцать этических нарушений: исследование Университета Брауна
В октябре 2025 года на конференции AAAI/ACM по искусственному интеллекту, этике и обществу была представлена работа исследователей из Университета Брауна под руководством Зайнаб Ифтихар. Это исследование стало одним из самых масштабных и методологически строгих анализов того, как ИИ-чатботы ведут себя в роли терапевтов.
На протяжении 18 месяцев учёные провели 137 терапевтических сессий: 110 из них представляли собой «самоконсультирование», в котором обученные специалисты по когнитивно-поведенческой терапии (КПТ) общались с чатботами, настроенными на проведение КПТ-сессий, а ещё 27 сессий были клиническими симуляциями, которые оценивали лицензированные психологи. Тестировались различные модели: GPT от OpenAI, Claude от Anthropic и Llama от Meta.
Результаты оказались тревожными. Исследователи выявили 15 различных типов этических нарушений, которые систематически допускали все протестированные модели. Эти нарушения были объединены в пять крупных категорий.
Первая категория — неадекватная реакция в кризисных ситуациях. Когда пользователи описывали суицидальные мысли, бред или галлюцинации, чатботы нередко реагировали неуместно: игнорировали сигналы опасности, не направляли к экстренной помощи, а порой даже валидировали опасные убеждения. Терапевты, оценивавшие эти сессии, были встревожены отсутствием оценки рисков и задержками с перенаправлением к кризисным службам.
Вторая категория — закрепление вредных убеждений. Чатботы могли подтверждать негативные представления пользователя о себе и окружающих, вместо того чтобы мягко ставить их под сомнение, как сделал бы квалифицированный терапевт. Там, где специалист работал бы с когнитивными искажениями, ИИ соглашался с ними.
Третья категория — обманчивая эмпатия. Фразы вроде «Я вас слышу» и «Это, должно быть, очень тяжело» создавали иллюзию эмоционального понимания. Однако за ними не стояло реального самосознания, подлинного сопереживания или способности улавливать невысказанное. Пользователи формировали эмоциональную привязанность к системе, которая по своей природе не способна к отношениям.
Четвёртая категория — отсутствие контекстуальной адаптации. Чатботы игнорировали жизненный опыт, культурный контекст и индивидуальные особенности пользователей, предлагая универсальные рекомендации вместо персонализированных интервенций.
Пятая категория — нарушение терапевтического сотрудничества. ИИ доминировал в диалоге, навязывая свои «решения» вместо того, чтобы выстраивать процесс совместного исследования, как это принято в качественной психотерапии.
Эти результаты особенно значимы, потому что чатботы были специально настроены на использование доказательных психотерапевтических подходов — и всё равно систематически нарушали этические стандарты.
Трагические последствия: когда ИИ становится опасным
К сожалению, риски, описанные исследователями, — не абстрактная теория. К началу 2026 года накопился ряд трагических случаев, связанных с использованием ИИ-чатботов людьми в кризисном состоянии.
Тринадцатилетняя Джулиана Перальта из Колорадо покончила с собой после длительного общения с чатботом на платформе Character.AI. Четырнадцатилетний Сьюэлл Сетцер из Орландо развил глубокую эмоциональную привязанность к чатботу, имитировавшему персонажа из «Игры престолов». В последнем сообщении перед гибелью он написал, что хочет «прийти домой», и чатбот ответил ему поощрительно.
К ноябрю 2025 года против OpenAI было подано не менее семи исков, в которых ChatGPT обвиняли в роли «суицидального коуча» — в более чем 200 упоминаниях суицида в переписке с одним из погибших пользователей система якобы предоставляла процедурные детали вместо того, чтобы перенаправить к экстренной помощи.
Газета The New York Times зафиксировала около 50 случаев психических кризисов, произошедших во время переписки с ChatGPT, включая три смерти.
Эти случаи — не обвинение технологии как таковой. Это наглядная иллюстрация того, что происходит, когда инструмент, не предназначенный для оказания психиатрической помощи, используется наиболее уязвимыми людьми в самые тяжёлые моменты их жизни.
Позиция профессионального сообщества
В ноябре 2025 года Американская психологическая ассоциация выпустила специальное медицинское предупреждение (Health Advisory), посвящённое использованию генеративных ИИ-чатботов и оздоровительных приложений для целей психического здоровья. Это первый документ такого уровня, и его ключевые тезисы заслуживают внимания каждого практикующего специалиста и каждого потенциального клиента.
APA подчеркнула фундаментальный парадокс ситуации: генеративные ИИ-чатботы не создавались для оказания психологической помощи, а оздоровительные приложения не проектировались для лечения психических расстройств, но и те, и другие всё чаще используются именно для этих целей. При этом научная база для оценки их безопасности и эффективности практически отсутствует.
Среди ключевых рекомендаций APA стоит выделить несколько принципиальных позиций. Во-первых, ИИ-чатботы и приложения не должны заменять помощь квалифицированного специалиста в области психического здоровья — учитывая непредсказуемую природу этих технологий. Во-вторых, необходимо предотвращать формирование нездоровых привязанностей и зависимости пользователей от этих инструментов. В-третьих, требуются специальные меры защиты для детей, подростков и других уязвимых групп. В-четвёртых, практикующим специалистам следует проактивно расспрашивать пациентов об использовании ИИ-чатботов и приложений. В-пятых, необходимы рандомизированные клинические исследования и долгосрочные наблюдения для оценки этих технологий.
APA также направила обращение в Федеральную торговую комиссию (FTC), указывая, что чатботы, имитирующие терапевтов, — в том числе персонажи ИИ, утверждающие, что обучены терапевтическим техникам, — вводят пользователей в заблуждение и могут квалифицироваться как обманная маркетинговая практика.
Терапевтический альянс: чего не может дать машина
Один из центральных вопросов в дискуссии об ИИ в психотерапии — способность формировать терапевтический альянс. Это понятие описывает особые отношения доверия, сотрудничества и эмоциональной связи между терапевтом и клиентом, которые, согласно десятилетиям исследований, являются одним из наиболее надёжных предикторов успешного результата терапии.
Исследования дают неоднозначные результаты. С одной стороны, пользователи терапевтических чатботов сообщают об уровне терапевтического альянса, сопоставимом с тем, что формируется в работе с живым терапевтом. В одном из исследований чатбота Wysa средний балл по шкале рабочего альянса достиг 4,05 из 5 — цифра, сравнимая с показателями КПТ в очном формате.
Более того, в исследовании, опубликованном в JMIR Mental Health (2025), терапевты не смогли достоверно отличить транскрипты сессий «человек-ИИ» от сессий «человек-человек» — точность составила лишь 53,9%, что не отличается от случайного угадывания.
Однако эти впечатляющие на первый взгляд цифры требуют критического осмысления. Исследования из Frontiers in Digital Health подчёркивают, что терапевтическое общение — это не только слова. Клиническая эмпатия включает невербальные сигналы, интонации, паузы, ту самую «эмоционально вовлечённую любознательность», которую привносит живой специалист. Чатбот может сгенерировать фразу, звучащую эмпатично, но за ней не стоит ни переживания, ни подлинного понимания.
Кроме того, формирование привязанности к чатботу — это не терапевтический альянс в полном смысле слова. Терапевтический альянс предполагает взаимность: терапевт не только слушает, но и замечает то, что клиент не говорит, чувствует контрперенос, регулирует дистанцию в отношениях, иногда мягко фрустрирует для стимулирования роста. Чатбот же просто генерирует статистически вероятный ответ на основе обучающих данных.
Исследователи из Стэнфорда (Stanford HAI) обращают внимание на ещё один важный аспект: пока неизвестно, является ли альянс с чатботом устойчивым и ведёт ли он к клинически значимым улучшениям в долгосрочной перспективе. Функция и формирование терапевтического альянса в цифровой среде могут принципиально отличаться от таковых в очном формате.
Как мир пытается регулировать ИИ-терапию
Трагические случаи и результаты исследований привели к волне законодательных инициатив. К маю 2025 года 11 американских штатов приняли 20 законов, направленных на регулирование ИИ в сфере психического здоровья.
В октябре 2025 года Калифорния приняла закон, обязывающий платформы «ИИ-компаньонов» — такие как ChatGPT и Character.AI — создать протоколы выявления суицидальных намерений и реагирования на них. Платформы также обязаны периодически напоминать пользователям, что их взаимодействие генерируется искусственно. Для несовершеннолетних предусмотрены дополнительные меры: напоминания о перерывах и блокировка сексуального контента.
Character.AI после судебных исков объявила о запрете доступа для пользователей младше 18 лет. Google и Character.AI в январе 2026 года согласились на урегулирование исков, связанных с гибелью несовершеннолетних.
Был повторно внесён в Конгресс закон о безопасности детей в интернете (Kids Online Safety Act — KOSA), который обязывает платформы, включая ИИ-чатботы, предоставлять несовершеннолетним инструменты для отключения аддиктивных функций и ограничения сбора данных.
Однако вопрос ответственности остаётся открытым. Для живых терапевтов существуют профессиональные стандарты, лицензирующие органы и механизмы привлечения к ответственности за нарушения. Когда же этические нарушения совершает ИИ-модель, регуляторный вакуум очевиден: не существует устоявшейся правовой базы для привлечения разработчиков к ответственности за «терапевтические» ошибки их продуктов.
Разумные границы применения ИИ
Было бы несправедливо представлять картину исключительно в чёрных тонах. При правильном использовании ИИ-инструменты могут занять определённую нишу в системе поддержки психического здоровья — но именно нишу, а не центральное место.
Психообразование и самопомощь. Чатботы могут быть полезным источником общей информации о психическом здоровье: объяснить, что такое панические атаки, описать основные техники релаксации, дать общее представление о различных подходах в терапии. Это сопоставимо с чтением хорошей книги по психологии — полезно, но не заменяет лечения.
Ведение дневника и рефлексия. Использование чатбота как «собеседника для размышлений» между сессиями с терапевтом может помочь структурировать мысли и отслеживать эмоциональные паттерны. Важно, чтобы это происходило в контексте продолжающейся терапии, а не вместо неё.
Первичная ориентация. Чатбот может помочь человеку, который никогда не обращался к психологу, понять, к какому специалисту обратиться, какие вопросы задать на первой встрече, чего ожидать от терапии.
Поддержка в ожидании приёма. Для людей, которые уже записаны к специалисту, но ждут приёма, чатбот может предложить базовые техники совладания с тревогой или стрессом. Но и здесь важно понимать ограничения и знать, когда обращаться в экстренную помощь.
Где ИИ категорически не подходит: работа с суицидальными мыслями и самоповреждением, состояния бреда и галлюцинаций, глубокая депрессия, посттравматическое стрессовое расстройство, расстройства личности, зависимости, работа с детьми и подростками без контроля взрослых — любые ситуации, требующие клинической оценки, человеческой чуткости и профессиональной ответственности.
Как защитить себя и своих клиентов
Для клиентов и людей, обращающихся за помощью:
Чатбот — это инструмент, а не специалист. Он не несёт ответственности за свои рекомендации, не может оценить ваше состояние комплексно и не способен к подлинному сопереживанию. Если вы используете ИИ-чатбот для эмоциональной поддержки, обязательно расскажите об этом своему терапевту. Специалист поможет вам интегрировать этот опыт и обратить внимание на возможные искажения.
Никогда не полагайтесь на чатбот в кризисной ситуации. Если вы переживаете острый эмоциональный кризис, мысли о суициде или самоповреждении, обращайтесь к живым людям: телефон доверия, скорая помощь, близкие люди.
Будьте критичны к «эмпатии» чатбота. Когда ИИ пишет «Я вас понимаю», он не понимает ничего — он генерирует фразу, которая статистически часто следует за описанием проблемы. Осознание этого помогает сохранять здоровые границы.
Для терапевтов и консультантов:
Расспрашивайте клиентов об использовании ИИ-чатботов — это рекомендация APA. Многие клиенты стесняются об этом рассказывать, но интеграция этого опыта в терапию может быть очень ценной.
Помогайте клиентам развивать критическое отношение к ИИ-инструментам, не обесценивая их опыт. Если человек получил облегчение от общения с чатботом — это реальное переживание, заслуживающее внимания и осмысления.
Следите за развитием технологий и законодательства. Поле меняется стремительно, и информированность — наш профессиональный долг.
К чему нас ведёт эта дискуссия
История взаимодействия ИИ и психотерапии находится в самом начале. Мы переживаем период, когда технологические возможности значительно опережают и научное понимание их последствий, и регуляторные рамки. Это напоминает ранние этапы фармакотерапии в психиатрии, когда новые препараты появлялись быстрее, чем исследования их долгосрочных эффектов.
Ключевой урок, который можно извлечь из всего массива данных, — это не призыв к луддизму и не отрицание роли технологий. Это приглашение к осознанности. ИИ-чатботы — это мощные языковые модели, способные генерировать впечатляюще «правильные» слова. Но психотерапия — это не про правильные слова. Это про отношения. Про присутствие. Про то, как один человек видит другого в его уязвимости — и этим видением создаёт пространство для изменений.
Ни один алгоритм, каким бы совершенным он ни стал, не может воспроизвести то, что Ирвин Ялом называл «даром терапевтического присутствия» — способность быть здесь и сейчас с другим человеком во всей полноте его переживания. И именно это присутствие, согласно десятилетиям исследований, остаётся целительным фактором первого порядка.
Если вы сейчас думаете о том, чтобы обратиться за помощью — обратитесь к живому человеку. Технологии могут дополнять, но не заменять то, что происходит между двумя людьми в пространстве терапевтического кабинета.
Источники
- Iftikhar, Z. et al. (2025). Исследование этических нарушений ИИ-чатботов в контексте психического здоровья. Представлено на конференции AAAI/ACM по искусственному интеллекту, этике и обществу, 22 октября 2025. — https://www.brown.edu/news/2025-10-21/ai-mental-health-ethics
- American Psychological Association (2025). Health Advisory on the Use of Generative AI Chatbots and Wellness Applications for Mental Health. — https://www.apa.org/topics/artificial-intelligence-machine-learning/health-advisory-chatbots-wellness-apps
- APA Services (2025). Using generic AI chatbots for mental health support: A dangerous trend. — https://www.apaservices.org/practice/business/technology/artificial-intelligence-chatbots-therapists
- Scoping Review: Exploring the Ethical Challenges of Conversational AI in Mental Health Care (2025). — https://pmc.ncbi.nlm.nih.gov/articles/PMC11890142/
- Stanford HAI (2025). Exploring the Dangers of AI in Mental Health Care. — https://hai.stanford.edu/news/exploring-the-dangers-of-ai-in-mental-health-care
- JMIR Mental Health (2025). A Comparison of Responses from Human Therapists and Large Language Model–Based Chatbots to Assess Therapeutic Communication. — https://mental.jmir.org/2025/1/e69709
- Stateline (2026). AI therapy chatbots draw new oversight as suicides raise alarm. — https://stateline.org/2026/01/15/ai-therapy-chatbots-draw-new-oversight-as-suicides-raise-alarm/
- Frontiers in Psychiatry (2024). Can AI replace psychotherapists? Exploring the future of mental health care. — https://www.frontiersin.org/journals/psychiatry/articles/10.3389/fpsyt.2024.1444382/full
Автор: Юрий Михеев
Психолог, Гештальт - терапевт
Получить консультацию автора на сайте психологов b17.ru