Всё больше людей обращаются к искусственному интеллекту как к психотерапевту, что совсем неудивительно, ведь ИИ доступен 24/7, не осуждает, внимательно слушает и всегда готов поддержать. В соцсетях множатся истории о том, как ChatGPT помог справиться с тревогой, а Claude дал ценный совет в сложной жизненной ситуации. Но насколько безопасно доверять свое ментальное здоровье алгоритму?
Мы попросили нашего копирайтера Катю Зебзееву, по совместительству практикующую психологиню и пользовательницу нейросетей, разобраться в этом вопросе. Мы подготовили этот материал не для того, чтобы демонизировать технологии, ведь они действительно могут быть полезным инструментом самопомощи, но чтобы понимать их ограничения и риски. В этой статье расскажем о правилах, которые помогут использовать ИИ для заботы о ментальном здоровье безвредно.
Минута душноты: общение с ИИ — это не психотерапия
В этой статье я намеренно не называю общение с искусственным интеллектом по поводу ментального здоровья «психотерапией», и вот почему.
Психотерапия — это профессиональный метод помощи человеку через специально выстроенное взаимодействие с подготовленным специалистом. Это не просто разговор или советы, а целенаправленная работа по изменению эмоционального состояния и поведения человека. Ключевой ее элемент — установление безопасного, доверительного, глубокого контакта между терапевтом и клиентом (терапевтического альянса), который и создает условия для перемен. Психотерапия — процесс, где важны эмпатия, понимание контекста, невербальные сигналы и способность специалиста откликаться на потребности конкретного человека.
Если же мы называем диалог с нейросетью «терапией», мы невольно вводим себя в заблуждение и создаем нереалистичные ожидания. ИИ, каким бы продвинутым он ни был, остается лишь программой, которая генерирует ответы на основе паттернов из обучающих данных. У виртуального психолога нет личного опыта, эмоций, способности к подлинному сопереживанию. Он не может уловить тонкие изменения в вашем голосе, заметить, что вы избегаете определенной темы, или почувствовать, что за вашими словами скрывается нечто большее.
Это не означает, что общение с ИИ бесполезно, нет, оно может быть ценным инструментом самопомощи, способом структурировать мысли и получить информацию.
Просто стоит помнить: для исцеления, перемен и роста человеку нужен человек.
Ответственность всегда остается за вами
Важное правило общения с ИИ по вопросам ментального здоровья — не забывать, что любое решение, которое вы примете после консультации, остается исключительно вашим — соответственно, и все последствия испытывать будете только вы.
Это принципиальное отличие от работы с живым психологом, который разделяет с вами профессиональную ответственность за процесс терапии, следует этическому кодексу и отвечает за свои рекомендации. Если психолог проявит некомпетентность, вы вправе обратиться с жалобой в ассоциацию, членом которой он является, или в клинику, где он работает, — его могут уволить, исключить из сообщества, привлечь к ответственности. Но если нейросеть предоставит вам недостоверную информацию, на основе которой вы примете решение и пострадаете, — никто этого не компенсирует и не поможет.
Понятно, что в сложных жизненных ситуациях хочется найти опору и получить четкий совет, а нейросети действительно могут формулировать очень убедительные и логичные ответы. Но не будем забывать, что они генерируют текст на основе статистических закономерностей, а не глубокого понимания именно вашей ситуации. ИИ не знает, что у вас за плечами, какие отношения с близкими, какие финансовые обязательства или проблемы со здоровьем. Он выдает усредненный ответ, который может звучать разумно, но совершенно не подходить конкретно вам.
Перед тем как воспользоваться ИИ-рекомендацией, задайте себе несколько вопросов:
- Откуда ИИ мог взять эту информацию? Вспомните, что нейросеть обучалась на текстах из интернета: насколько они применимы к вашей культуре, возрасту, социальному статусу, жизненной ситуации?
- Что именно мне хотелось услышать? Часто мы неосознанно формулируем вопросы так, чтобы получить желаемый ответ — в психологии мы называем это предвзятостью подтверждения. Допустим, мы пишем: «Правда же, что мне стоит уйти с этой токсичной работы?» вместо «Как мне решить проблемы на работе?».
- Какой важной информации не хватает ИИ? Всегда есть детали, которые мы упускаем, но которые критически важны для принятия решения. Например, описывая конфликт с партнером, можно сосредоточиться только на негативных моментах, и ИИ выдаст вердикт об абьюзивных отношениях. Но при этом были не рассказаны эпизоды, как он поддерживал во время болезни родителей, как совместно преодолевались финансовые трудности или что раздражение стало появляться только после его внезапного увольнения.
- Почему мне проще довериться программе, чем себе или другому человеку? Этот вопрос может вскрыть важные психологические механизмы. Возможно, с ИИ вы чувствуете себя в безопасности, ведь он не осудит, не расскажет вашу историю другим, не разочаруется в вас. Или же вам трудно доверять собственным чувствам после серии неудачных решений и хочется переложить выбор на алгоритм. Иногда за обращением к ИИ стоит страх уязвимости, потому что с машиной, в отличие от людей, не нужно строить отношения, можно оставаться в эмоциональной броне. Честный ответ поможет понять, не подменяете ли вы технологией то, в чем действительно нуждаетесь — в человеческом тепле, принятии и поддержке.
- Соответствует ли совет моим ценностям? ИИ не знает, что для вас по-настоящему важно, поэтому проверьте решение на соответствие вашим принципам.
«Теплота» ИИ — это всего лишь алгоритм
Одна из главных ловушек при общении с ИИ — это ощущение, что он вас понимает и сопереживает. Нейросеть мастерски имитирует эмпатию: она всегда на вашей стороне, никогда не спорит, деликатно соглашается с вашей точкой зрения. Если вы укажете ей на ошибку, она мило извинится: «О, простите, вы абсолютно правы». Это создает ощущение безопасного, принимающего пространства, где вас слышат и поддерживают. Но, конечно же, ИИ не испытывает эмоций, а просто следует алгоритмам, которые обучили его отвечать максимально дружелюбно. Это не эмпатия, а ее искусная имитация, созданная для того, чтобы пользователю было комфортно.
На самом деле для многих людей такое общение действительно ценно. В мире, где существует реальный дефицит теплого, поддерживающего общения без оценок и осуждения, диалог с всегда доброжелательным ИИ может ощущаться как глоток сладкого теплого молока во время простуды. И нет ничего плохого в том, чтобы получать такую поддержку от машин: каждому иногда нужно выговориться и услышать добрые слова.
Живой психолог же, в отличие от машины, предлагает истинную эмпатию — профессиональную компетенцию, которая включает понимание состояния клиента, поддержку и безоценочное принятие, но это не означает, что специалист всегда будет приятным. Терапевтические сессии могут быть наполнены отрезвляющими наблюдениями, указаниями на деструктивные паттерны, иногда даже конфронтацией. Психолог может сказать: «Я заметил, что вы снова обесцениваете свои чувства» или «Давайте посмотрим, как вы сейчас избегаете ответственности». Это может быть неприятно, но именно это ведет к изменениям. У психолога нет задачи оберегать вас от всех невзгод, его задача — быть рядом и помочь вам научиться выдерживать боль, потому что она — неизбежная часть жизни.
Критическое мышление превыше всего
ИИ может ошибаться, причем делает это очень убедительно. Проблема в том, что нейросети генерируют ответы с одинаковой уверенностью, независимо от того, насколько точна информация: они могут придумать несуществующие исследования, исказить факты или дать опасные рекомендации — и всё это будет подано в той же дружелюбной, компетентной манере. Поэтому критическое мышление при работе с ИИ всегда вопрос безопасности.
Особенно важно быть осторожным, если у вас есть диагностированное психиатрическое заболевание или вы подозреваете его наличие. Например, человек с тревожным расстройством может начать постоянно обращаться к нейросети для снижения тревоги — «А вот это нормально?», «А что, если это серьезно?». Каждый раз ИИ будет успокаивать, и это временно снизит тревогу, но в долгосрочной перспективе такое поведение может превратиться во вредную привычку — навязчивое действие для снижения дискомфорта. В психотерапии тревожных расстройств, наоборот, важнейшая задача — постепенно отказываться от такого охранительного поведения и учиться выдерживать неопределенность. Или для человека с психотическими симптомами переписка с ИИ может стать опасным подтверждением бредовых идей, ведь он не способен распознать патологическое мышление.
Относитесь к ИИ как к собеседнику для мозгового штурма, а не как к эксперту. Всегда перепроверяйте факты: если нейросеть предлагает технику или метод, то проверьте, существует ли такой подход в реальной психологии. Обращайте внимание на «красные флаги»: излишняя категоричность, универсальные советы без учета контекста, ссылки на исследования без источников. Задавайте уточняющие вопросы: «Какие есть противопоказания?», «В каких случаях это может не сработать?». И еще: если ИИ советует что-то, что кажется вам странным, то лучше доверьтесь своей интуиции.
Заключение
Для многих людей психотерапия остается вопросом привилегии: не у всех есть финансовая возможность обратиться за консультацией к специалисту, а тем более начать длительную психотерапию. В этом контексте ИИ может стать доступной альтернативой для получения информации о том, как поддержать себя в различных жизненных ситуациях. Главное — не терять бдительности и помнить об ограничениях технологии. Берегите себя!
Книги по теме:
— «Нейросети могут всё»
— «Со мной все в порядке»
— «Психотерапия на каждый день»
Похожие статьи:
— «Человек или ИИ: Кто побеждает?»
— «Как найти себя в одиночестве: психолог о пути к себе»
— «Заглянуть в себя: Концепции из экзистенциальной психологии»
— «Счастье не случайно: три главных открытия позитивной психологии, которые изменят вашу жизнь (скорее всего)»