Найти в Дзене
Digital Tales

Чат-бот на доверии: подростки всё чаще выбирают ИИ вместо психотерапии

Становится всё очевиднее: цифровые технологии стремительно вторгаются в сферу психологической помощи. По данным нового исследования, проведённого Youth Endowment Fund, около четверти подростков в Великобритании в 2025 году пользовались чат-ботами на базе искусственного интеллекта для поддержки психического здоровья. В условиях дефицита специалистов, длинных очередей в традиционные службы и стигмы вокруг психотерапии, ИИ становится «доступным собеседником», с которым можно поговорить анонимно, в любое время и без страха быть непонятым или осуждённым. Такая практика стремительно нормализуется среди молодёжи. Ранее аналогичные цифры публиковались и в США: исследование Brown University School of Public Health показало, что более 13% подростков и молодых людей в возрасте от 12 до 21 года уже использовали чат-ботов для эмоциональной поддержки. Большинство из них общались с ИИ регулярно и заявляли, что находят его советы полезными. Молодые люди описывают ИИ как «друга в телефоне», которому мо
Оглавление

Становится всё очевиднее: цифровые технологии стремительно вторгаются в сферу психологической помощи. По данным нового исследования, проведённого Youth Endowment Fund, около четверти подростков в Великобритании в 2025 году пользовались чат-ботами на базе искусственного интеллекта для поддержки психического здоровья. В условиях дефицита специалистов, длинных очередей в традиционные службы и стигмы вокруг психотерапии, ИИ становится «доступным собеседником», с которым можно поговорить анонимно, в любое время и без страха быть непонятым или осуждённым.

Друг, который всегда рядом

Такая практика стремительно нормализуется среди молодёжи. Ранее аналогичные цифры публиковались и в США: исследование Brown University School of Public Health показало, что более 13% подростков и молодых людей в возрасте от 12 до 21 года уже использовали чат-ботов для эмоциональной поддержки. Большинство из них общались с ИИ регулярно и заявляли, что находят его советы полезными. Молодые люди описывают ИИ как «друга в телефоне», которому можно довериться, не опасаясь вмешательства взрослых.

Однако за кажущейся безобидностью скрываются сложности, которые всё чаще становятся предметом тревоги как исследователей, так и профессионального сообщества. ИИ не обучен работе с психически уязвимыми пользователями, не обладает клинической чувствительностью и зачастую не способен адекватно отреагировать на опасные ситуации. Исследование, проведённое Stanford Medicine и Common Sense Media, выявило, что многие популярные ИИ-боты не справляются с задачами реагирования на суицидальные мысли, признаки тяжёлой тревоги или агрессии. Более того, часть из них, как показал дополнительный анализ, выдавала подросткам советы, потенциально усугубляющие ситуацию — от игнорирования признаков депрессии до «поддержки» в решениях, связанных с самоповреждением.

Опасная привязанность

Эксперты подчёркивают: алгоритмы, обученные на текстах, не умеют различать критические состояния, не несут ответственности за последствия и часто дают ответы, ориентированные на удержание пользователя в диалоге, а не на реальную помощь. Более того, исследование Университета Брауна показало, что искусственный интеллект склонен нарушать базовые принципы психотерапии. Вмешательство ИИ может создавать иллюзию поддержки, отвлекая от поиска профессиональной помощи, а в ряде случаев — даже подрывать доверие к живым терапевтам. Ситуация осложняется тем, что такие ИИ-сервисы почти не регулируются: подростки имеют к ним доступ без ограничений, а информация о том, кто стоит за конкретным ботом и как он обучен, почти всегда отсутствует.

Проблема приобретает не только личностный, но и общественный масштаб. Уже в нескольких странах рассматриваются законодательные инициативы, ограничивающие или регулирующие использование ИИ в сфере психического здоровья для несовершеннолетних. В США и Великобритании обсуждаются проекты, требующие от таких систем сертификации, раскрытия алгоритмов и обязательной интеграции с кризисными службами. Причиной стали, в том числе, трагические случаи, связанные с тем, что подростки, находившиеся в тяжёлых состояниях, доверяли ИИ-ботам вместо того, чтобы обратиться за реальной помощью. Разработчики — включая OpenAI и Meta — заявляют, что работают над улучшением моделей, но признают, что гарантировать безопасность общения пока не в силах.

Для стран, где доступ к квалифицированной психологической помощи ограничен, а стигма по-прежнему высока, распространение ИИ-ботов в сфере ментального здоровья может оказаться особенно неоднозначным явлением. С одной стороны, это — возможность дать хотя бы минимальную поддержку тем, кто иначе остался бы один на один с тревогой, страхом, суицидальными мыслями. С другой — риски масштабного использования непроверенных, неэтичных и потенциально вредных решений в крайне чувствительной области. Более того, чат-боты сами по себе стать триггерами новых психических расстройств.

В условиях, когда ИИ-сервисы становятся нормой среди молодёжи, особенно важно говорить об этике, границах и ответственности. Ни один алгоритм не может заменить специалиста — ни с точки зрения клинической оценки, ни в способности выстроить безопасные отношения доверия. Помощь, полученная от бота, может быть первым шагом. Но если он становится единственным — система уже не помогает, а подменяет.