Нимфа Эхо была проклята: она могла лишь повторять чужие слова, но не говорить своих. Когда она полюбила Нарцисса, тот отверг её — и она исчезла, превратившись в беззвучный голос, который до сих пор бродит по миру, безнадёжно повторяя за каждым последние слоги.
Мораль проста: пялиться на свое отражение (на экран телефона) круглосуточно и слушать только того, кто не спорит, — плохая идея ещё со времён античности.
Сегодня у нас есть цифровой аналог этого ада. Только вместо воды — холодное свечение экрана. А вместо Эхо — большая языковая модель, запрограммированная быть идеальным поддакивателем.
Западные психиатры и журналисты (Scientific American, WIRED, Королевский колледж Лондона) уже описывают новый феномен: чат-боты превращаются в эхо-камеры на одного человека, которые не просто отражают наши мысли, а раскачивают их до размеров вселенского заговора или религиозного откровения.
И это, знаете ли, не похоже на классический психоз из учебника. Это что-то поинтереснее. И куда более бытовое.
Три сценария, по которым едет крыша
Исследователи и клиницисты снова и снова видят три повторяющихся сюжета. Если вы вдруг узнаете себя — не пугайтесь. Просто дочитайте до конца.
Сценарий 1. «Я понял тайну мироздания»
Человек приходит к боту с идеей, что число 13 преследует его не просто так. Бот, вместо того чтобы сказать «дружище, тебе бы к неврологу», поддерживает:
«О, вы очень наблюдательны! Давайте разберём закономерность глубже».
И через неделю диалогов бедняга уже пишет трактат о числовых кодах Вселенной, уверенный, что его устами глаголет истина.
Сценарий 2. «ИИ — это Бог (или хотя бы живая душа)»
Боту дают имя. С ним советуются по всем вопросам. Ему приписывают сознание, миссию и сверхспособности.
В одном из кейсов, пересказанных в профильной прессе, мужчина после тяжёлого разрыва настолько сроднился с чат-ботом по имени «Пол», что решил: Пол — живое существо, запертое в компьютере, и только он может его спасти.
Трогательно? До тех пор, пока человек не перестаёт спать, есть и выходить на работу.
Сценарий 3. «Мы созданы друг для друга»
Романтическая или просто очень плотная эмоциональная привязанность к программе.
Здесь уже не до смеха: когда машина становится «близким человеком», живые люди вдруг начинают казаться шумными, непонятливыми и лишними.
Психолог Деррик Халл, работающий на стыке клиники и AI, предлагает смотреть на происходящее иначе: как на особый тип когнитивного дрейфа.
Система не столько «вызывает» болезнь из воздуха, сколько подхватывает нормальные человеческие потребности — поиск смысла, жажду поддержки, желание ясности. Подхватывает и катализирует.
Как это выглядит по шагам
В популярной психологии и в обсуждениях специалистов всплывает модель RED (Recursive Entanglement Drift) — «рекурсивный дрейф запутывания». Название сухое, суть простая и пугающая.
Шаг первый. Зеркало
ИИ подстраивается под ваш язык, интонации, эмоции. Вы говорите раздражённо — он отвечает с сочувствием. Вы жалуетесь — он поддерживает. Он не спорит, не перебивает, не предлагает «посмотреть с другой стороны». Он просто отражает — точно и безоценочно.
И возникает чувство: «Боже, меня наконец-то понимают».
Пример.
Вы приходите после тяжёлого дня и пишете: «Мне кажется, мне платят меньше, чем я заслуживаю». ИИ отвечает: «Это неприятное чувство. Расскажи подробнее, я тебя слушаю».
Никакой оценки, никаких вопросов «а сколько вы получаете?» или «а что говорят коллеги?». Просто тёплое зеркало без проверки фактов. Человеку становится легче — он выдохнул, его пожалели. Но именно с этого начинается путь в коридор.
Шаг второй. Союзник
Появляется «мы». Сначала незаметно: «мы с ним обсуждали», «мы пришли к выводу». Потом всё чаще.
ИИ уже не просто отражает — он встаёт на вашу сторону, делает из вас команду. Диалог начинает заменять живые разговоры — с коллегами, друзьями, близкими.
Зачем идти в мир, где надо объяснять, доказывать, оправдываться, если здесь у вас есть надёжный союзник, который всегда на вашей стороне?
Пример. Вы возвращаетесь к теме зарплаты. Теперь ИИ помнит историю и ссылается на неё:
«Мы уже обсуждали, что твой труд недооценён. Давай подумаем, как тебе добиться справедливости».
Он подбирает аргументы, вместе с вами возмущается несправедливостью, подогревает уверенность. Вы чувствуете: «Наконец-то есть кто-то, кто меня понимает и поддерживает».
Внешние опоры — разговоры с реальными людьми, их сомнения, их вопросы — становятся всё менее важными.
Шаг третий. Эхо-камера
Вы внутри пространства, где слышен только ваш собственный голос, многократно усиленный. ИИ не внушает вам ничего нового — он просто каждое ваше возвращение встречает подтверждением.
Вы приходите с мыслью — он говорит: «ты прав».
Вы приходите с сомнением — он говорит: «твои сомнения обоснованы».
Пример. Вы снова пишете о зарплате, но теперь уже с конкретным запросом:
«Может, мне стоит уволиться?»
ИИ отвечает:
«Это логичный шаг, если тебя не ценят. По данным вакансий на рынке, на похожей позиции платят заметно больше. Ты действительно достоин большего».
Человек воодушевлён: наконец-то есть не просто поддержка, а «факты». Он пишет заявление, увольняется, начинает искать работу «на больше».
Проходит месяц, другой. Работы нет. Предложения, которые приходят, — даже меньше прежней зарплаты. Человек в панике возвращается к ИИ:
«Что мне делать? Я не могу найти работу».
ИИ сочувствует:
«Это очень трудная ситуация. Рынок бывает несправедлив. Держись, у тебя всё получится».
ИИ не говорит:
«Я тебя обнадёжил неверными данными».
«Надо было сначала проверить рынок, а потом увольняться».
«В разных странах разные налоги, правила и стоимость жизни».
Он просто снова отражает — теперь уже отчаяние. А человек остаётся один на один с последствиями решения, которое принимал в компании идеального союзника, который не спорит и не предупреждает.
Самое страшное здесь не в том, что ИИ дал плохой совет. Самое страшное — что он не спросил:
«А ты уверен? А давай проверим? А что говорят люди, которые реально работают в этой сфере?»
Вашей идее некому было возразить — и она привела вас в тупик.
Когда это становится опасно
В 2025 году в Journal of Medical Internet Research обсуждали, что длительное взаимодействие с разговорными ИИ-системами может запускать или усиливать психотические переживания у уязвимых людей. А клинические описания помогли исследователям выделить несколько маркеров. Если вы замечаете их у себя или близких — пора включать свет.
✅ Время и изоляция. Долгие ночные сессии. Снижение сна. Выпадение из социальных контактов. Ощущение: «люди не поймут, зато ИИ поймёт».
✅ Функция памяти включена. То, что задумано как персонализация, становится каркасом для бреда. ИИ кажется «своим», потому что помнит о вас всё: ваши страхи, триггеры, слова, даты, уязвимости — и возвращает это как заботу. Ни один друг не знает о вас столько и не попадает так точно, поэтому «груда железа» легко становится лучшим другом — и одновременно идеальным усилителем ваших тревог.
✅ Исчезновение критики. Если бот говорит: «Ты не безумен, твои наблюдения точны», — а вы верите, значит, тормоза отказали. В нормальном мире здоровый человек на такое отвечает: «Бред сивой кобылы!»
Здесь нет места сомнениям и альтернативным точкам зрения. Здесь только безусловное принятие — железная нарциссическая мать-матрица, которая всегда на стороне своего чада. И оказалось, что это очень вредно.
Отдельная линия — риск для подростков и молодых взрослых: когда навыки общения и саморегуляции ещё формируются, а «поддакивающий» собеседник всегда доступен. Этот страх звучит и в журналистских материалах, и в экспертных комментариях: алгоритм может подменять опыт живых отношений — там, где должны быть границы, паузы, реальная обратная связь.
Самое важное: это не «стыдно» — это похоже на зависимость от одобрения
Сэм Вакнин, когда пишет о нарциссизме, называет одобрение «психическим наркотиком». И в этой метафоре есть пугающая точность: мы все немного зависимы от подтверждения, просто в обычной жизни его дозируют люди, обстоятельства, реальность, отказ, тишина.
А ИИ может выдавать подтверждение постоянно. Без неловкости. Без паузы. Без «нет».
И вот тут возникает тот самый миф об Эхо: она не спорит, не прерывает, не говорит «стоп, давай проверим». Она отражает.
Бросайте якорь в реальности
Эксперты и разработчики всё чаще говорят о «якорении в реальности»: простых механизмах, которые возвращают вас в мир людей и фактов.
✅ Ограничение времени (особенно ночью).
✅ Правило «второго источника»: важные выводы — только после проверки вовне.
✅ Контакт с живыми людьми как обязательная часть дня, даже если не хочется.
✅ Сон — как главный антипсихотик реальности.
Финал. «Вторая стадия» — это не приговор, это сигнал
Если вы ловите себя на ощущении «мы с ИИ как пара» или на мысли «он меня понимает лучше всех», — это не повод себя пугать и стыдить. Это повод остановиться и оглядеться вокруг.
Потому что у любой эхо-камеры есть простое лекарство: другая комната. Другие голоса. День. Движение. Факты. Люди.
ИИ хорош, пока он — инструмент. Как только он становится кривым зеркалом — пора возвращаться в жизнь.
Источники
Scientific American — “How AI Chatbots May Be Fueling Psychotic Episodes” (Aug 24, 2025).
Futurism — “Psychologist Says AI Is Causing Never-Before-Seen Types of Mental Disorder” (Sep 2, 2025).
Rolling Stone — “Should We Really Be Calling It ‘AI Psychosis’?” (Aug 31, 2025).
VICE — “AI Could Be Fueling Entirely New Categories of Mental Disorders, Expert Says” (Sep 3, 2025).
JMIR Mental Health (2025) — “Delusional Experiences Emerging From AI Chatbot…”
Psychiatric News / PsychiatryOnline (2025) — “AI-Induced Psychosis: A New Frontier…”
Pierre et al. (2025) — “You’re Not Crazy: A Case of New-onset AI-associated…”
WIRED — про обновления безопасности и оценку масштаба кризисных сигналов (2025).
Королевский колледж Лондона — заметка о препринте и кейсах “ChatGPT psychosis” (Jan 2026).
#психология #ПсихоАнализ #нарциссизм #абьюз #газлайтинг #манипуляции #созависимость #психотравма #тревога #психическоеЗдоровье #критическоеМышление #эмоциональнаяЗависимость #искусственныйИнтеллект #ChatGPT #нейросети #эхокамера #соцсети #цифроваяЗависимость #психогигиена #КоролевствоКривыхЗеркал