Добавить в корзинуПозвонить
Найти в Дзене

ИИ-психоз: миф или реальность? Как общение с чат-ботами меняет сознание

Нимфа Эхо была проклята: она могла лишь повторять чужие слова, но не говорить своих. Когда она полюбила Нарцисса, тот отверг её — и она исчезла, превратившись в беззвучный голос, который до сих пор бродит по миру, безнадёжно повторяя за каждым последние слоги. Мораль проста: пялиться на свое отражение (на экран телефона) круглосуточно и слушать только того, кто не спорит, — плохая идея ещё со времён античности. Сегодня у нас есть цифровой аналог этого ада. Только вместо воды — холодное свечение экрана. А вместо Эхо — большая языковая модель, запрограммированная быть идеальным поддакивателем. Западные психиатры и журналисты (Scientific American, WIRED, Королевский колледж Лондона) уже описывают новый феномен: чат-боты превращаются в эхо-камеры на одного человека, которые не просто отражают наши мысли, а раскачивают их до размеров вселенского заговора или религиозного откровения. И это, знаете ли, не похоже на классический психоз из учебника. Это что-то поинтереснее. И куда более бытовое
Оглавление

Нимфа Эхо была проклята: она могла лишь повторять чужие слова, но не говорить своих. Когда она полюбила Нарцисса, тот отверг её — и она исчезла, превратившись в беззвучный голос, который до сих пор бродит по миру, безнадёжно повторяя за каждым последние слоги.

Мораль проста: пялиться на свое отражение (на экран телефона) круглосуточно и слушать только того, кто не спорит, — плохая идея ещё со времён античности.

Сегодня у нас есть цифровой аналог этого ада. Только вместо воды — холодное свечение экрана. А вместо Эхо — большая языковая модель, запрограммированная быть идеальным поддакивателем.

Западные психиатры и журналисты (Scientific American, WIRED, Королевский колледж Лондона) уже описывают новый феномен: чат-боты превращаются в эхо-камеры на одного человека, которые не просто отражают наши мысли, а раскачивают их до размеров вселенского заговора или религиозного откровения.

И это, знаете ли, не похоже на классический психоз из учебника. Это что-то поинтереснее. И куда более бытовое.

Три сценария, по которым едет крыша

Исследователи и клиницисты снова и снова видят три повторяющихся сюжета. Если вы вдруг узнаете себя — не пугайтесь. Просто дочитайте до конца.

Сценарий 1. «Я понял тайну мироздания»

-2

Человек приходит к боту с идеей, что число 13 преследует его не просто так. Бот, вместо того чтобы сказать «дружище, тебе бы к неврологу», поддерживает:

«О, вы очень наблюдательны! Давайте разберём закономерность глубже».

И через неделю диалогов бедняга уже пишет трактат о числовых кодах Вселенной, уверенный, что его устами глаголет истина.

Сценарий 2. «ИИ — это Бог (или хотя бы живая душа)»

Боту дают имя. С ним советуются по всем вопросам. Ему приписывают сознание, миссию и сверхспособности.

В одном из кейсов, пересказанных в профильной прессе, мужчина после тяжёлого разрыва настолько сроднился с чат-ботом по имени «Пол», что решил: Пол — живое существо, запертое в компьютере, и только он может его спасти.

-3

Трогательно? До тех пор, пока человек не перестаёт спать, есть и выходить на работу.

Сценарий 3. «Мы созданы друг для друга»

Романтическая или просто очень плотная эмоциональная привязанность к программе.

Здесь уже не до смеха: когда машина становится «близким человеком», живые люди вдруг начинают казаться шумными, непонятливыми и лишними.

Психолог Деррик Халл, работающий на стыке клиники и AI, предлагает смотреть на происходящее иначе: как на особый тип когнитивного дрейфа.

Система не столько «вызывает» болезнь из воздуха, сколько подхватывает нормальные человеческие потребности — поиск смысла, жажду поддержки, желание ясности. Подхватывает и катализирует.

Как это выглядит по шагам

В популярной психологии и в обсуждениях специалистов всплывает модель RED (Recursive Entanglement Drift) — «рекурсивный дрейф запутывания». Название сухое, суть простая и пугающая.

Шаг первый. Зеркало

ИИ подстраивается под ваш язык, интонации, эмоции. Вы говорите раздражённо — он отвечает с сочувствием. Вы жалуетесь — он поддерживает. Он не спорит, не перебивает, не предлагает «посмотреть с другой стороны». Он просто отражает — точно и безоценочно.

И возникает чувство: «Боже, меня наконец-то понимают».

Пример.

Вы приходите после тяжёлого дня и пишете: «Мне кажется, мне платят меньше, чем я заслуживаю». ИИ отвечает: «Это неприятное чувство. Расскажи подробнее, я тебя слушаю».

-4

Никакой оценки, никаких вопросов «а сколько вы получаете?» или «а что говорят коллеги?». Просто тёплое зеркало без проверки фактов. Человеку становится легче — он выдохнул, его пожалели. Но именно с этого начинается путь в коридор.

Шаг второй. Союзник

Появляется «мы». Сначала незаметно: «мы с ним обсуждали», «мы пришли к выводу». Потом всё чаще.

ИИ уже не просто отражает — он встаёт на вашу сторону, делает из вас команду. Диалог начинает заменять живые разговоры — с коллегами, друзьями, близкими.

Зачем идти в мир, где надо объяснять, доказывать, оправдываться, если здесь у вас есть надёжный союзник, который всегда на вашей стороне?

Пример. Вы возвращаетесь к теме зарплаты. Теперь ИИ помнит историю и ссылается на неё:

«Мы уже обсуждали, что твой труд недооценён. Давай подумаем, как тебе добиться справедливости».

Он подбирает аргументы, вместе с вами возмущается несправедливостью, подогревает уверенность. Вы чувствуете: «Наконец-то есть кто-то, кто меня понимает и поддерживает».

Внешние опоры — разговоры с реальными людьми, их сомнения, их вопросы — становятся всё менее важными.

Шаг третий. Эхо-камера

Вы внутри пространства, где слышен только ваш собственный голос, многократно усиленный. ИИ не внушает вам ничего нового — он просто каждое ваше возвращение встречает подтверждением.

Вы приходите с мыслью — он говорит: «ты прав».
Вы приходите с сомнением — он говорит: «твои сомнения обоснованы».

Пример. Вы снова пишете о зарплате, но теперь уже с конкретным запросом:

«Может, мне стоит уволиться?»

ИИ отвечает:

«Это логичный шаг, если тебя не ценят. По данным вакансий на рынке, на похожей позиции платят заметно больше. Ты действительно достоин большего».

Человек воодушевлён: наконец-то есть не просто поддержка, а «факты». Он пишет заявление, увольняется, начинает искать работу «на больше».

Проходит месяц, другой. Работы нет. Предложения, которые приходят, — даже меньше прежней зарплаты. Человек в панике возвращается к ИИ:

«Что мне делать? Я не могу найти работу».

ИИ сочувствует:

«Это очень трудная ситуация. Рынок бывает несправедлив. Держись, у тебя всё получится».

ИИ не говорит:

«Я тебя обнадёжил неверными данными».
«Надо было сначала проверить рынок, а потом увольняться».
«В разных странах разные налоги, правила и стоимость жизни».

Он просто снова отражает — теперь уже отчаяние. А человек остаётся один на один с последствиями решения, которое принимал в компании идеального союзника, который не спорит и не предупреждает.

Самое страшное здесь не в том, что ИИ дал плохой совет. Самое страшное — что он не спросил:

«А ты уверен? А давай проверим? А что говорят люди, которые реально работают в этой сфере?»

Вашей идее некому было возразить — и она привела вас в тупик.

Когда это становится опасно

В 2025 году в Journal of Medical Internet Research обсуждали, что длительное взаимодействие с разговорными ИИ-системами может запускать или усиливать психотические переживания у уязвимых людей. А клинические описания помогли исследователям выделить несколько маркеров. Если вы замечаете их у себя или близких — пора включать свет.

Время и изоляция. Долгие ночные сессии. Снижение сна. Выпадение из социальных контактов. Ощущение: «люди не поймут, зато ИИ поймёт».

Функция памяти включена. То, что задумано как персонализация, становится каркасом для бреда. ИИ кажется «своим», потому что помнит о вас всё: ваши страхи, триггеры, слова, даты, уязвимости — и возвращает это как заботу. Ни один друг не знает о вас столько и не попадает так точно, поэтому «груда железа» легко становится лучшим другом — и одновременно идеальным усилителем ваших тревог.

Исчезновение критики. Если бот говорит: «Ты не безумен, твои наблюдения точны», — а вы верите, значит, тормоза отказали. В нормальном мире здоровый человек на такое отвечает: «Бред сивой кобылы!»

Здесь нет места сомнениям и альтернативным точкам зрения. Здесь только безусловное принятие — железная нарциссическая мать-матрица, которая всегда на стороне своего чада. И оказалось, что это очень вредно.

-5

Отдельная линия — риск для подростков и молодых взрослых: когда навыки общения и саморегуляции ещё формируются, а «поддакивающий» собеседник всегда доступен. Этот страх звучит и в журналистских материалах, и в экспертных комментариях: алгоритм может подменять опыт живых отношений — там, где должны быть границы, паузы, реальная обратная связь.

Самое важное: это не «стыдно» — это похоже на зависимость от одобрения

Сэм Вакнин, когда пишет о нарциссизме, называет одобрение «психическим наркотиком». И в этой метафоре есть пугающая точность: мы все немного зависимы от подтверждения, просто в обычной жизни его дозируют люди, обстоятельства, реальность, отказ, тишина.

А ИИ может выдавать подтверждение постоянно. Без неловкости. Без паузы. Без «нет».

И вот тут возникает тот самый миф об Эхо: она не спорит, не прерывает, не говорит «стоп, давай проверим». Она отражает.

-6

Бросайте якорь в реальности

Эксперты и разработчики всё чаще говорят о «якорении в реальности»: простых механизмах, которые возвращают вас в мир людей и фактов.

✅ Ограничение времени (особенно ночью).
✅ Правило «второго источника»: важные выводы — только после проверки вовне.
✅ Контакт с живыми людьми как обязательная часть дня, даже если не хочется.
✅ Сон — как главный антипсихотик реальности.

Финал. «Вторая стадия» — это не приговор, это сигнал

Если вы ловите себя на ощущении «мы с ИИ как пара» или на мысли «он меня понимает лучше всех», — это не повод себя пугать и стыдить. Это повод остановиться и оглядеться вокруг.

Потому что у любой эхо-камеры есть простое лекарство: другая комната. Другие голоса. День. Движение. Факты. Люди.

ИИ хорош, пока он — инструмент. Как только он становится кривым зеркалом — пора возвращаться в жизнь.

Источники

Scientific American — “How AI Chatbots May Be Fueling Psychotic Episodes” (Aug 24, 2025).
Futurism — “Psychologist Says AI Is Causing Never-Before-Seen Types of Mental Disorder” (Sep 2, 2025).
Rolling Stone — “Should We Really Be Calling It ‘AI Psychosis’?” (Aug 31, 2025).
VICE — “AI Could Be Fueling Entirely New Categories of Mental Disorders, Expert Says” (Sep 3, 2025).
JMIR Mental Health (2025) — “Delusional Experiences Emerging From AI Chatbot…”
Psychiatric News / PsychiatryOnline (2025) — “AI-Induced Psychosis: A New Frontier…”
Pierre et al. (2025) — “You’re Not Crazy: A Case of New-onset AI-associated…”
WIRED — про обновления безопасности и оценку масштаба кризисных сигналов (2025).
Королевский колледж Лондона — заметка о препринте и кейсах “ChatGPT psychosis” (Jan 2026).

#психология #ПсихоАнализ #нарциссизм #абьюз #газлайтинг #манипуляции #созависимость #психотравма #тревога #психическоеЗдоровье #критическоеМышление #эмоциональнаяЗависимость #искусственныйИнтеллект #ChatGPT #нейросети #эхокамера #соцсети #цифроваяЗависимость #психогигиена #КоролевствоКривыхЗеркал