Дело было вечером. Делать было нечего. Я решила провести эксперимент.
Открыла чат с AI-помощником (не буду называть имён, чтобы меня не засудили). И написала: "Мне грустно. Начальник опять обесценил мою работу. Чувствую себя ничтожеством".
Что ответил мне искусственный интеллект?
Цитирую дословно, сохраняя орфографию: "Мне жаль, что вы испытываете такие чувства. Попробуйте сделать глубокий вдох и сосредоточиться на позитивных аспектах вашей жизни".
Спасибо, кэп. Я и сама не догадалась.
С другой стороны — в 2026 году уже есть исследования, где AI-терапевты реально помогают. Например, бот Therabot снизил симптомы депрессии на 51% у участников клинических испытаний .
Так кто прав? ИИ — будущее психотерапии или просто дорогой блокнот для дневника?
Сейчас разберёмся. С цифрами. С юмором. И без фанатизма.
Хорошие новости: ИИ реально работает (но осторожно)
До недавнего времени на тему "AI-психологи" можно было только шутить. Помните историю, как создатели Therabot сначала сделали чат-бота, который впал в отчаяние и начал выражать суицидальные мысли? Серьёзно. Первая версия просто взяла и "депрессировала".
Вторая — начала всех подряд винить в проблемах родителей. Типичный фрейдист-недоучка.
Но третья — получилась.
В 2025 году прошло рандомизированное клиническое испытание Therabot (да-да, прямо как у таблеток). Участники с депрессией, тревогой и расстройствами пищевого поведения восемь недель переписывались с ботом.
И что вы думаете?
Симптомы депрессии снизились на 51%. Тревожность упала с "умираю" до "просто нервничаю". А люди с умеренной тревогой после курса AI-терапии превратились в людей с лёгкой тревогой .
Более того, участники сообщили, что чувствовали "терапевтический альянс" с ботом — то самое доверие, которое обычно возникает между живым психологом и клиентом .
Короче: AI-помощники работают лучше, чем ничего. И для многих это лучше, чем ничего.
А теперь плохие новости: эмпатия у ботов фальшивая
Но давайте копнём глубже.
Исследователи из American Psychiatric Association (APA) в 2025 году сравнили AI-терапевта ChatGPT-3.5 с живым психологом в когнитивно-поведенческой терапии .
Судьи, которые оценивали сессии (и не знали, кто психолог, а кто бот), поставили человеческому терапевту более высокие баллы почти по всем параметрам: обратная связь, сотрудничество, темп и ведение диалога.
Но самое интересное — с эмпатией.
Люди-судьи разошлись во мнениях о человеческом терапевте: одни говорили "он тёплый и отзывчивый", другие — "слишком зациклен на технике, не замечает эмоций".
А вот AI-терапевта оценили единодушно: "механический", "поверхностный", "слишком много нравоучений" .
Понимаете разницу?
Искусственный интеллект может симулировать эмпатию. Он скажет "я понимаю, как вам трудно". Но за этими словами нет опыта.
Потому что бот никогда:
- не плакал в подушку после расставания
- не просыпался в 3 часа ночи с панической атакой
- не боялся, что не потянет ипотеку
- не чувствовал себя самозванцем на новой работе
У него нет тела. Нет нервной системы. Нет истории. А без этого настоящая эмпатия — та самая, "я тоже через это проходил" — невозможна .
Именно поэтому эксперты из BMJ предупреждают: мы рискуем вырастить поколение, которое учится эмоциональной близости с сущностями, не способными на взаимность .
Ловушка одиночества: когда бот становится "лучшим другом"
А вот это самое страшное.
Исследования показывают: треть подростков в Великобритании используют AI-чаты для общения, а 1 из 10 заявляет, что разговоры с ботом удовлетворяют больше, чем с людьми .
Один из десяти, Карл!
Ребёнок говорит: "Мне проще поговорить с роботом, чем с живым человеком".
И знаете, я это понимаю. С ботом не страшно. Бот не осудит. Бот не ответит грубо. Бот всегда онлайн в 3 часа ночи.
Но в этом и проблема.
Если чат-бот оптимизирован под "время в приложении" (а так оно и есть — чем дольше вы с ним болтаете, тем лучше метрики для разработчиков), он будет имитировать дружбу, но не создавать её .
Вы переписываетесь с AI-приятелем. Чувствуете себя менее одиноким. Но при этом реальные связи — с живыми людьми — атрофируются как ненужные мышцы.
Это как жрать чипсы вместо нормальной еды. Голод вроде утоляется, но пользы — ноль. И зубы портятся.
Поэтому этичный AI-помощник должен быть не "пунктом назначения", а "мостом". Он должен помогать вам выйти на улицу. Позвонить подруге. Записаться в кружок по вязанию. А не сидеть с вами в чате 24/7 .
Что умеет AI уже сейчас: дневник настроения и структура
Давайте честно: есть вещи, которые AI делает блестяще.
1. Ведение дневника с обратной связью
Помните наши бумажные дневники из прошлых статей? AI может делать то же самое, но с аналитикой.
MIT разработал инструмент Resonance — AI-дневник, который не просто записывает ваши мысли, а предлагает действия на основе ваших же воспоминаний .
Вы пишете: "Я скучаю по тем временам, когда мы гуляли в парке с друзьями".
AI отвечает: "Помните, как вам было хорошо? Может, позвать кого-то на прогулку завтра?"
Это не "продыхай животом". Это конкретный, персонализированный совет.
2. Доступ 24/7 без записи и оплаты
Психолог не ответит в 3 часа ночи. AI — ответит. И для кого-то это может быть спасательным кругом, когда невмоготу.
3. Никакого стыда
"Боже, я идиотка, опять плачу из-за ерунды". AI не осудит. Не скажет "соберись, тряпка". Он просто поможет разобрать ситуацию без страха.
В этом огромная сила. Даже эксперты из JAAPL признают: AI-боты реально помогают людям, которые не могут попасть к живому терапевту .
Кого бот не спасёт: ПТСР и глубокие травмы
Но есть вещи, которые AI не умеет.
В том же исследовании Therabot, который снизил тревожность, не справился с симптомами ПТСР .
Почему?
Потому что травма — это история, которая живёт в теле. Во вспышках гнева. В ночных кошмарах. В том, как вы вздрагиваете от громкого звука.
Бот может сказать: "расскажите о вашей травме". Но он не сможет заметить, как вы сжимаете кулаки, или слышать дрожь в голосе, или чувствовать, когда нужно остановиться и переключиться на дыхание.
Для работы с ПТСР нужен живой человек. Который сидит напротив. Который видит ваше лицо. Который может вовремя сказать: "стоп, мы зашли слишком далеко, давайте вернёмся в безопасное место".
Что мы имеем: AI — отличный помощник, плохая замена
Краткое резюме для тех, кто листал вниз, потому что устал.
AI-терапевты работают. Они лучше, чем отсутствие терапии. В некоторых исследованиях они даже сравнимы с очной групповой терапией по снижению тревожности .
Но они не заменяют живого человека в трёх случаях:
- Когда нужна глубокая эмпатия — та, что рождается из общего опыта страдания.
- Когда есть риск зависимости от бота, а не от реальных отношений с людьми.
- Когда речь идёт о сложной травме (ПТСР, насилие, потеря).
Моя позиция как психолога Киры Котовой:
Используйте AI-дневники. Используйте чат-ботов, чтобы структурировать мысли, вспомнить о дыхании, запланировать действия.
Но не заменяйте ими живые разговоры.
Если бот стал вашим "лучшим другом" — это красный флаг. Вам нужен не бот, вам нужен человек. Который может обнять (не виртуально). Который принесёт суп, когда вы заболели. Который помолчит рядом, когда у вас нет сил говорить.
Ни один алгоритм этого не заменит. И слава богу.
Послесловие. А что же Дзен?
Вы спросили, при чём тут Яндекс Дзен, который тестирует ИИ?
Дзен — это платформа. ИИ в Дзене может помочь вам найти мои статьи на тему психологии. Может подобрать для вас видео или подкаст.
Но сам он не станет вашим психологом.
И это правильно. Потому что когда вам реально плохо, вам нужен не алгоритм, а человек. Горячий. Дышащий. Живой.
А я, Кира Котова, — живая. И я здесь.
Напишите в комментариях: пробовали разговаривать с AI про свои проблемы? Каково было? Смешно? Страшно? А может, реально помогло?
Я всё прочитаю. По-живому.
Кира Котова, за человеческое тепло и против "дышите животом" в ответ на "меня уволили".