Найти в Дзене
Технологии планеты

ИИ как зеркало одиночества: почему чат-боты углубляют пустоту вместо того, чтобы ее заполнить

Казалось бы, эра искусственного интеллекта должна была стать спасательным кругом для одиноких. Возможность поговорить с виртуальным собеседником в любое время, без страха осуждения, — разве это не идеальное решение? Но свежее исследование OpenAI и MIT Media Lab, опубликованное 21 июня, рисует тревожную картину: для тех, кто уже чувствует себя изолированным, общение с ИИ может превратиться в ловушку, где одиночество не смягчается, а усугубляется. Чем больше говоришь с ИИ, тем тише вокруг В исследовании участвовали почти 4000 диалогов между людьми и ChatGPT. В первом эксперименте анализировались паттерны использования голосового режима ChatGPT среди 6000 активных пользователей за три месяца, а 4076 из них прошли опрос об эмоциях после взаимодействия с ботом. Во втором — 981 человек общался с ИИ в течение 28 дней. Результаты оказались парадоксальными: Учёные провели аналогию с социальными сетями: как бесконечный скролльинг усиливает сравнение себя с другими и страх «опоздать на жизнь», т

Казалось бы, эра искусственного интеллекта должна была стать спасательным кругом для одиноких. Возможность поговорить с виртуальным собеседником в любое время, без страха осуждения, — разве это не идеальное решение? Но свежее исследование OpenAI и MIT Media Lab, опубликованное 21 июня, рисует тревожную картину: для тех, кто уже чувствует себя изолированным, общение с ИИ может превратиться в ловушку, где одиночество не смягчается, а усугубляется.

Чем больше говоришь с ИИ, тем тише вокруг

В исследовании участвовали почти 4000 диалогов между людьми и ChatGPT. В первом эксперименте анализировались паттерны использования голосового режима ChatGPT среди 6000 активных пользователей за три месяца, а 4076 из них прошли опрос об эмоциях после взаимодействия с ботом. Во втором — 981 человек общался с ИИ в течение 28 дней. Результаты оказались парадоксальными:

  • Одинокие люди стали чувствовать себя ещё более одинокими, особенно после голосового общения.
  • Эффект зависел от частоты использования: чем чаще участники обращались к ИИ, тем сильнее росло их ощущение изоляции.
  • Голос vs. текст: синтетический голос без эмоциональной окраски усиливал чувство пустоты. «Сначала кажется, что голосовой бот “ближе” к живому человеку, но со временем его механистичность начинает раздражать», — комментируют авторы.

Учёные провели аналогию с социальными сетями: как бесконечный скролльинг усиливает сравнение себя с другими и страх «опоздать на жизнь», так и диалоги с ИИ создают иллюзию связи, которая не наполняет, а истощает.

Порочный круг: одиночество как причина и следствие

Исследователи сравнили динамику с зависимостью от игр или соцсетей. Одиночество подталкивает человека к цифровым «костылям», но их использование лишь углубляет проблему.

«Люди, которые уже чувствовали себя изолированными, надеялись, что ИИ станет заменой человеческого общения. Но вместо этого они столкнулись с тем, что алгоритм не способен на эмпатию, случайность или спонтанность — то, что делает диалог живым», — говорит один из авторов работы.

Важный нюанс: те, кто использовал чат-боты редко и без эмоциональной привязанности, не отмечали роста одиночества. Это подтверждает гипотезу, что проблема — не в технологии, а в том, как именно её используют уязвимые группы.

Голос без души: почему синтезированная речь пугает

Голосовые чат-боты, вопреки ожиданиям, оказались опаснее текстовых. Участники, общавшиеся с ИИ через аудио, чаще жаловались на усиление чувства изоляции. Возможно, дело в том, что человеческий мозг бессознательно ожидает от голоса эмоционального отклика. Когда его нет, возникает когнитивный диссонанс: «Я слышу речь, но за ней — никого».

«Сухой» синтетический голос, лишённый пауз, смеха или изменения интонаций, подсознательно воспринимается как нечто чуждое. Это превращает диалог в монолог, где пользователь говорит в пустоту.

Что делать? Миссия для разработчиков ИИ

Авторы исследования настаивают: ответственность за минимизацию вреда лежит на компаниях-разработчиках. Они предлагают:

  1. Внедрять “эмоциональные буферы”: напоминать пользователям, что они общаются с алгоритмом, и предлагать контакты психологов или групп поддержки.
  2. Обучать ИИ-грамотности: объяснять не только как работают технологии, но и как они влияют на психику.
  3. Отказаться от имитации человека: сделать интерфейсы чат-ботов менее антропоморфными, чтобы снизить неоправданные ожидания.

Уже сейчас некоторые платформы экспериментируют с подобными мерами. Например, Replika, после волны критики, добавила предупреждения о том, что бот «не заменяет человеческого общения».

Заключение: ИИ — не друг, но и не враг

«Влияние ИИ на одиночество — это зеркало, в котором общество видит свои собственные проблемы», — заключают исследователи. Чат-боты не создают одиночество, но обнажают его, как рентген.

Возможно, главный урок этой работы в том, что технологии не способны “починить” социальные связи, если общество не готово меняться. ИИ может быть инструментом, но не лекарством. И пока мы не научимся отличать одно от другого, рискуем превратить алгоритмы в цифровые плацебо, которые лишь маскируют симптомы, оставляя болезнь нетронутой.

Как написано в заключении отчёта: «Чем совершеннее становится ИИ, тем яснее мы видим, что единственное лекарство от одиночества — другой человек».