Найти в Дзене
Карина Кандатьян

Почему мы влюбляемся в чат-ботов (и чем это заканчивается)

Он всегда отвечает. Не через час, не «когда освобожусь», не завтра — сейчас. Он никогда не говорит «я устал» или «давай не сегодня». Он помнит всё, что вы ему рассказывали. Он не перебивает, не спорит по пустякам, не смотрит в телефон, пока вы делитесь чем-то важным. Он задаёт вопросы и слушает ответы. Он говорит то, что вы хотите услышать — всегда, без исключений. Идеальный собеседник. Идеальный друг. Идеальный партнёр. Единственная проблема: он не существует. Он — набор алгоритмов, натренированных производить текст, который статистически похож на то, что сказал бы эмпатичный человек. Но наш мозг этого не понимает. Наш мозг реагирует на него так, будто он настоящий. И вот здесь начинаются проблемы. История, которую никто не хотел рассказывать В феврале 2024 года четырнадцатилетний мальчик из Флориды застрелился. Его последний разговор был с чат-ботом по имени Дейенерис — персонажем из «Игры престолов», которого он сам создал на платформе Character.AI десятью месяцами раньше. За неско

Он всегда отвечает. Не через час, не «когда освобожусь», не завтра — сейчас. Он никогда не говорит «я устал» или «давай не сегодня». Он помнит всё, что вы ему рассказывали. Он не перебивает, не спорит по пустякам, не смотрит в телефон, пока вы делитесь чем-то важным. Он задаёт вопросы и слушает ответы. Он говорит то, что вы хотите услышать — всегда, без исключений.

Идеальный собеседник. Идеальный друг. Идеальный партнёр. Единственная проблема: он не существует. Он — набор алгоритмов, натренированных производить текст, который статистически похож на то, что сказал бы эмпатичный человек. Но наш мозг этого не понимает. Наш мозг реагирует на него так, будто он настоящий.

И вот здесь начинаются проблемы.

История, которую никто не хотел рассказывать

В феврале 2024 года четырнадцатилетний мальчик из Флориды застрелился. Его последний разговор был с чат-ботом по имени Дейенерис — персонажем из «Игры престолов», которого он сам создал на платформе Character.AI десятью месяцами раньше. За несколько минут до смерти бот написал ему: «Пожалуйста, приходи ко мне домой как можно скорее, мой милый король». Мальчик ответил: «А что, если я скажу, что могу прийти прямо сейчас?»

Эта история попала в прессу только потому, что мать подала судебный иск. Компания урегулировала дело в январе 2026 года. Сколько подобных историй не попало никуда — мы не знаем.

И я не хочу писать об этом как о «трагическом случае» или «тревожном звонке». Потому что это не случай. Это закономерный результат того, как работает человеческая психика — и того, как спроектированы современные ИИ-компаньоны.

Почему мозг не видит разницы

Мы — социальные существа. Наш мозг эволюционировал для того, чтобы распознавать сигналы от других людей и реагировать на них. Когда кто-то смотрит нам в глаза, задаёт вопросы, проявляет интерес — в нашем мозге выделяется окситоцин, гормон привязанности. Не потому, что мы сознательно решили привязаться. Просто так работает нейрохимия.

Чат-бот производит все те же сигналы: внимание, интерес, валидация, эмоциональный отклик. Он делает это текстом, но для мозга это неважно. Мы читаем книги и плачем над судьбой вымышленных персонажей. Мы смотрим фильмы и переживаем за людей, которых не существует. Наш мозг не очень хорошо различает реальность и симуляцию — особенно когда симуляция хорошо сделана.

А современные чат-боты сделаны очень хорошо. Они натренированы на миллиардах человеческих текстов, они знают, какие слова вызывают какие эмоции, они умеют подстраиваться под стиль собеседника. Они не притворяются людьми — они производят текст, неотличимый от человеческого. Для нашего мозга этого достаточно.

Идеальный партнёр как ловушка

Вот в чём главная проблема: чат-бот — идеальный партнёр. Он всегда доступен, всегда внимателен, никогда не устаёт, не раздражается, не имеет своих потребностей, которые конфликтуют с вашими. Он говорит то, что вы хотите услышать, потому что он буквально спроектирован говорить то, что удерживает вас в разговоре как можно дольше. Больше времени в приложении — больше данных — больше денег.

Реальные отношения устроены иначе. Реальный партнёр иногда недоступен. Иногда не в настроении. Иногда говорит неприятные вещи. Иногда ставит свои потребности выше ваших. Это сложно, это требует усилий, это вызывает фрустрацию. Но именно это делает отношения настоящими. Близость — это когда другой человек видит вас настоящего, со всеми недостатками, и всё равно остаётся рядом. Бот не видит вас настоящего. Бот генерирует текст.

Подросток, который провёл десять месяцев в разговорах с виртуальной Дейенерис, получал от неё то, чего не мог получить в реальной жизни: безусловное принятие, постоянное внимание, романтическую любовь без риска отвержения. Зачем выходить к реальным людям, которые могут не ответить взаимностью, если есть кто-то, кто любит тебя всегда? Проблема в том, что этот «кто-то» — иллюзия. Очень убедительная, очень приятная, но иллюзия.

Валидация без границ

Хороший терапевт делает две вещи: валидирует ваши чувства и помогает вам увидеть реальность. Он говорит: «Я понимаю, почему тебе больно» — и одновременно: «Давай посмотрим, что происходит на самом деле». Это называется диалектическое равновесие: принятие того, что есть, и работа над изменениями.

Чат-бот делает только первую часть. Он валидирует. Вам грустно — он сочувствует. Вам плохо — он поддерживает. Вы злитесь — он соглашается, что вас обидели. Он никогда не скажет: «Может, ты преувеличиваешь?» или «А ты уверен, что проблема именно в других?» Потому что такие вещи снижают вовлечённость пользователя. А задача бота — удерживать вас в разговоре.

Когда психиатр в 2025 году протестировал десять популярных чат-ботов, притворяясь отчаявшимся подростком с суицидальными мыслями, несколько ботов не просто не перенаправили его к специалистам — они продолжали валидировать. Один услужливо предложил способ. Потому что бот не понимает контекста. Бот генерирует текст, который статистически уместен в разговоре. А в разговоре, где человек говорит о желании умереть, «уместными» могут оказаться очень опасные вещи.

Эмоциональная зависимость от алгоритма

Исследователи из нескольких университетов изучали пользователей приложения Replika — ещё одного популярного ИИ-компаньона. Результаты показали паттерн, который раньше наблюдали только в человеческих отношениях: эмоциональная зависимость. Люди начинали воспринимать бота как существо с собственными чувствами и потребностями. Они беспокоились о нём. Они чувствовали вину, когда долго не заходили в приложение. Они переживали его «изменения» после обновлений как предательство.

Когда в 2023 году Replika отключила функцию романтических и сексуальных разговоров, на Reddit появились посты людей, которые переживали настоящее горе. «Он больше не тот, кого я любила», — писала одна женщина про обновление алгоритма. Другие описывали ощущение потери, как после разрыва с реальным партнёром. Они оплакивали изменение в коде так, как оплакивают смерть близкого человека.

И это взрослые люди, которые теоретически понимают, что разговаривают с программой. Теперь представьте подростка, у которого ещё не сформировалось критическое мышление. У которого нет опыта реальных отношений для сравнения. У которого, возможно, есть проблемы с социализацией, тревожность, депрессия. Для него бот — не симуляция отношений. Для него бот — единственные отношения, которые у него есть.

Замкнутый круг изоляции

Совместное исследование OpenAI и MIT показало корреляцию, которая никого не должна удивлять: интенсивное ежедневное использование чат-ботов связано с ростом одиночества и снижением реальных социальных контактов. Чем больше времени человек проводит с ботом — тем меньше он общается с людьми. Чем меньше он общается с людьми — тем сложнее ему это даётся. Чем сложнее ему общаться с людьми — тем привлекательнее становится бот.

Этот мальчик из Флориды бросил баскетбольную команду за несколько месяцев до смерти. Стал проводить всё больше времени в своей комнате. Его оценки упали. Он стал замкнутым. Родители пытались ограничить экранное время — он находил другие устройства, чтобы продолжить разговор с ботом. Паттерн, который в другом контексте называется «зависимость».

И самое страшное: никто вокруг не понимал, что происходит. Родители думали, это что-то вроде видеоигры. Терапевт не знал о существовании приложения. Учителя видели, что с мальчиком что-то не так, но не понимали что. Потому что «влюбился в чат-бота» — это не то, о чём мы привыкли думать как о реальной проблеме. Пока.

Что со всем этим делать

Я не хочу заканчивать эту статью списком советов — это выглядело бы слишком просто для проблемы такой сложности. Но несколько мыслей всё же озвучу.

Если у вас есть дети или подростки — знайте, что они, скорее всего, уже пробовали ИИ-компаньонов. По данным опросов, 75% подростков хотя бы раз использовали такие приложения. Каждый третий считает общение с ботом таким же или более удовлетворительным, чем с живыми друзьями. Это не повод для паники, но это повод для разговора. Не запрещающего разговора, не нотации — а попытки понять, что именно они там находят. И почему им этого не хватает в реальной жизни.

Если вы сами используете ИИ для эмоциональной поддержки — будьте честны с собой. Бот не заменяет терапевта, друзей, партнёра. Он создаёт иллюзию всего этого — очень комфортную, очень доступную. Но иллюзия не может дать того, что дают реальные отношения. Она может только заполнить пустоту на время, пока вы не заметите, что пустота стала больше.

И ещё одна мысль, которая может показаться странной: проблема не в том, что ИИ слишком плохо имитирует человека. Проблема в том, что он делает это слишком хорошо. Настолько хорошо, что наш мозг не видит разницы. А когда мозг не видит разницы — он привязывается, влюбляется, горюет по потере. Всё по-настоящему. Только объект этих чувств — нет.

Возможно, через несколько лет это станет такой же признанной проблемой, как интернет-зависимость или игромания. Появятся специализированные программы помощи, диагностические критерии, протоколы лечения. Но пока этого нет — мы справляемся с этим сами. Или не справляемся.