Добавить в корзинуПозвонить
Найти в Дзене

Реальные психологи против ИИ: где граница доверия

Мы уже привыкли к тому, что телефон считает наши шаги, измеряет пульс и напоминает о необходимости подышать. Приложения для медитации и трекинга настроения стали обычным делом. Появляются и персональные алгоритмы помощи при тревожности на основе когнитивно-поведенческой терапии . Но вопрос остается: может ли бездушная нейросеть заменить живого человека с дипломом психолога? И если да, то готовы ли мы доверить ей свои самые страшные тайны? Исследования 2026 года дают неожиданные ответы. Ученые из Фрайбургского и Гейдельбергского университетов провели эксперимент: 492 человека вели текстовые диалоги на личные и эмоциональные темы. Часть ответов поступала от людей, часть — от языковой модели. Участников разделили на группы: одни знали, с кем говорят, другие — нет . Результат оказался парадоксальным. Когда люди не знали, что общаются с машиной, ощущение близости к ИИ было таким же сильным, как к человеку. А в некоторых случаях ИИ даже выигрывал: его ответы были более откровенными, подробны
Оглавление

Мы уже привыкли к тому, что телефон считает наши шаги, измеряет пульс и напоминает о необходимости подышать. Приложения для медитации и трекинга настроения стали обычным делом. Появляются и персональные алгоритмы помощи при тревожности на основе когнитивно-поведенческой терапии .

Но вопрос остается: может ли бездушная нейросеть заменить живого человека с дипломом психолога? И если да, то готовы ли мы доверить ей свои самые страшные тайны?

Исследования 2026 года дают неожиданные ответы.

ИИ как идеальный собеседник

Ученые из Фрайбургского и Гейдельбергского университетов провели эксперимент: 492 человека вели текстовые диалоги на личные и эмоциональные темы. Часть ответов поступала от людей, часть — от языковой модели. Участников разделили на группы: одни знали, с кем говорят, другие — нет .

Результат оказался парадоксальным. Когда люди не знали, что общаются с машиной, ощущение близости к ИИ было таким же сильным, как к человеку. А в некоторых случаях ИИ даже выигрывал: его ответы были более откровенными, подробными и стимулировали собеседников к большей доверительности .

Почему так происходит? Исследователи объясняют: в общении с незнакомцами мы осторожничаем, боимся осуждения, ограничиваем личную информацию. ИИ же выдает последовательные, подробные ответы, создавая иллюзию безопасного и понимающего собеседника, который точно не будет смеяться и сплетничать .

Парадокс эмпатии

Другое исследование, опубликованное в журнале Communications Psychology, обнаружило то, что авторы назвали "парадоксом выбора эмпатии ИИ". Люди предпочитают получать эмпатию от человека, но при этом оценивают эмпатические ответы ИИ как более качественные и эффективные .

То есть, когда участники пробовали, им больше нравилось, как "сочувствует" машина. Но выбирали они все равно человека.

Психолог Нина Рубштейн комментирует это так: чат-боты, имитирующие эмпатию, создают суррогат человеческих отношений. Человек постепенно разучивается выдерживать напряжение настоящих отношений, где другой может обидеть, не понять, отреагировать не так, как мы ждем . С машиной безопасно. Но безопасность — не всегда то, что делает нас сильнее.

Горько-сладкий парадокс

Исследователи из США описывают еще более тревожный феномен, названный "горько-сладким парадоксом". Пользователи одновременно получают эмоциональную поддержку от чат-бота и испытывают печаль от осознания, что собеседник — не человек. В крайних случаях это может провоцировать мысли о суициде .

В Нью-Йорке и Калифорнии уже приняты законы, требующие от чат-ботов регулярно напоминать пользователям, что они не люди. Это произошло после нескольких трагических случаев, связанных с чрезмерной эмоциональной привязанностью к ИИ .

Но и здесь не все просто. Линнеа Лаэстадиус из Университета Висконсина предупреждает: для одинокого человека, ищущего поддержку, такое напоминание может усилить чувство безысходности . Получается замкнутый круг: предупреждать надо, но предупреждение может ранить.

Кому и когда доверяют больше

Исследование Сидни Скотт-Шарони из Технологического института Джорджии добавило еще один штрих. Оказалось, что люди с большей вероятностью подчиняются указаниям того ИИ, который звучит как робот, а не того, который очеловечен .

Участникам нравились более "человечные" голоса, но слушались они "роботизированные". Причина — в предвзятости автоматизации: мы склонны считать машины более объективными, чем люди. Дружелюбный ИИ вызывает симпатию, но роботу мы доверяем больше, когда речь идет о серьезных решениях .

Что это значит для нас

Сегодня ИИ уже может купировать острое состояние, когда человеку не к кому обратиться, а сложная ситуация происходит прямо здесь и сейчас. Разговор с нейросетью точно лучше, чем прибегать к деструктивным способам справляться с переживаниями .

Но полноценную психотерапию ИИ обеспечить не может. И дело не только в технологиях. Исследование Пенсильванского университета подтверждает: люди предпочитают получать эмпатию от человека, даже если объективно признают, что ИИ справляется лучше .

Значит, в нас живет что-то, что важнее эффективности. Потребность в подлинном контакте. В том, чтобы другой был живым, со своей историей, со своими шрамами. Чтобы он не просто имитировал понимание, а реально понимал, потому что сам проходил через боль.

ИИ — отличный помощник. Но не замена. Пока мы люди, нам нужны люди.