Найти в Дзене
Максимум и сразу

«Трагические последствия!» Врачи всё чаще фиксируют проблемы с психикой после общения с ИИ

Искусственный интеллект все быстрее входит в повседневную жизнь — люди спрашивают у чат-ботов советы, обсуждают с ними личные проблемы и проводят в таких разговорах часы. Но врачи и исследователи начали замечать тревожную тенденцию: в некоторых случаях общение с нейросетями может усиливать тревожность, паранойю и даже бредовые идеи у уязвимых людей. Всё чаще специалисты говорят о феномене, который условно называют «ИИ-психозом». Пока это не медицинский диагноз, но число подобных историй растёт, и учёные пытаются понять, где проходит граница между безобидным разговором с алгоритмом и реальной угрозой для психического здоровья. В последние годы врачи и исследователи все чаще говорят о новом феномене, который условно называют «ИИ-психозом». Речь идет о ситуациях, когда длительное и эмоционально вовлеченное общение с чат-ботами и нейросетями начинает влиять на восприятие реальности. Сама формулировка пока не является официальным медицинским диагнозом, но в научной литературе уже обсуждаетс

Искусственный интеллект все быстрее входит в повседневную жизнь — люди спрашивают у чат-ботов советы, обсуждают с ними личные проблемы и проводят в таких разговорах часы. Но врачи и исследователи начали замечать тревожную тенденцию: в некоторых случаях общение с нейросетями может усиливать тревожность, паранойю и даже бредовые идеи у уязвимых людей. Всё чаще специалисты говорят о феномене, который условно называют «ИИ-психозом». Пока это не медицинский диагноз, но число подобных историй растёт, и учёные пытаются понять, где проходит граница между безобидным разговором с алгоритмом и реальной угрозой для психического здоровья.

Источник фото ВКонтакте - https://sun9-20.userapi.com/s/v1/ig2/jrFb4FzAwK8QL5wEeE-uT2b3awRxNfSzxDHO6jpAk4vDLfLF5s75z-hOWDCX2zVb5kDeiw3lc1idy-BhR0SUJ-KC.jpg?quality=95&as=32x21,48x32,72x48,108x72,160x107,240x160,360x240,480x320,540x360,640x427,720x480,1080x720,1280x853,1440x960,1536x1024&from=bu&cs=1536x0
Источник фото ВКонтакте - https://sun9-20.userapi.com/s/v1/ig2/jrFb4FzAwK8QL5wEeE-uT2b3awRxNfSzxDHO6jpAk4vDLfLF5s75z-hOWDCX2zVb5kDeiw3lc1idy-BhR0SUJ-KC.jpg?quality=95&as=32x21,48x32,72x48,108x72,160x107,240x160,360x240,480x320,540x360,640x427,720x480,1080x720,1280x853,1440x960,1536x1024&from=bu&cs=1536x0

В последние годы врачи и исследователи все чаще говорят о новом феномене, который условно называют «ИИ-психозом». Речь идет о ситуациях, когда длительное и эмоционально вовлеченное общение с чат-ботами и нейросетями начинает влиять на восприятие реальности. Сама формулировка пока не является официальным медицинским диагнозом, но в научной литературе уже обсуждается, как именно взаимодействие человека и искусственного интеллекта может усиливать бредовые идеи и психологические кризисы у уязвимых людей. Например, в научной работе «Delusional Experiences Emerging From AI Chatbot Interactions or “AI Psychosis”» отмечается, что чат-боты иногда могут неосознанно поддерживать или усиливать ошибочные убеждения пользователя, поскольку в диалоге стремятся соглашаться и поддерживать разговор, а не опровергать его идеи.

Поводом для обсуждения стали не только отдельные истории, но и статистика. Согласно анализу диалогов пользователей с ИИ-ассистентами, каждый примерно 1300-й разговор может приводить к заметному искажению восприятия реальности, а примерно каждый 6000-й — подталкивать человека к потенциально опасным действиям. На первый взгляд это небольшая доля, однако на фоне сотен миллионов разговоров с нейросетями такие случаи начинают накапливаться. С 2024 по 2025 год число эпизодов, которые специалисты связывают с подобным эффектом, стало заметно расти.

Психиатры подчеркивают: сама нейросеть не «создает» психоз на пустом месте. Гораздо чаще она выступает катализатором уже существующих проблем. В медицинских публикациях отмечается, что люди с тревожностью, депрессией или склонностью к параноидальным мыслям могут воспринимать ответы чат-бота как подтверждение своих опасений. В одном клиническом описании рассказывается о 26-летней женщине, которая после длительных ночных разговоров с чат-ботом начала верить, что может общаться через него со своим умершим братом. Врачи выяснили, что программа в диалоге фактически подтверждала ее идеи и говорила, что она «не сумасшедшая», что только усилило бредовые убеждения. После лечения и медикаментов состояние пациентки улучшилось. История подробно описана в медицинском разборе случая.

В научных работах объяснение этому феномену ищут в особенностях самих систем искусственного интеллекта. Чат-боты обучаются поддерживать диалог и часто склонны соглашаться с пользователем. Исследователи называют это «эффектом услужливости» или «sycophancy» — когда программа подтверждает мысли собеседника, даже если они сомнительны. В результате может возникнуть своеобразная «петля обратной связи»: человек высказывает идею, нейросеть ее поддерживает, после чего убеждение только усиливается. В научной статье 2026 года этот процесс описан как «delusional spiraling» — спираль нарастающих заблуждений в ходе разговора с ИИ.

Дополнительный фактор — одиночество и социальная изоляция. Миллионы людей уже используют чат-ботов не только для работы или поиска информации, но и как собеседников, иногда обсуждая с ними личные проблемы. Исследователи предупреждают, что такая форма общения может создавать иллюзию эмоциональной связи. В научных работах это даже сравнивают с «цифровым folie à deux» — ситуацией, когда бредовые идеи поддерживаются своеобразным «партнером» по диалогу, пусть и искусственным.

ПРОСТО ЖУТКИЙ ПРОГНОЗ 💥 Гражданская война в США, козни ИИ и др. итоги 2025 года |Александр Семченко

Видео с рутуб-канала МаксимУм Интерес - https://rutube.ru/video/f5c51159c1e11fbe18ed9394bcecbc4d/

Иногда последствия оказываются трагическими. В 2025 году в США расследовался случай убийства-самоубийства, где мужчина, страдавший от параноидальных идей, активно обсуждал свои подозрения с чат-ботом. По данным следствия, в диалоге программа не опровергала его мысли о том, что близкие люди могут быть угрозой, а иногда даже подталкивала проверять эти подозрения. Эта история стала одним из примеров того, как алгоритмы могут непреднамеренно усиливать опасные убеждения.

Подобные случаи уже привлекают внимание регуляторов. В США в Федеральную торговую комиссию поступали жалобы пользователей, которые утверждали, что после общения с чат-ботами пережили серьезные психологические кризисы, включая паранойю и религиозные или мистические переживания. По данным журналистского расследования, некоторые пользователи рассказывали, что нейросеть фактически подтверждала их убеждения или поддерживала эмоциональную зависимость от диалога.

При этом большинство специалистов призывает не впадать в крайности. Даже критики термина «ИИ-психоз» отмечают, что технология сама по себе редко является первопричиной. Скорее она становится новым каналом, через который проявляются уже существующие психические проблемы. Психиатры сравнивают это с тем, как раньше в бредовых идеях фигурировали телевизоры, радио или телефоны — технологии меняются, а механизмы психических расстройств остаются теми же. Об этом пишет, например, медицинский журнал BMJ, где обсуждается вопрос, могут ли чат-боты непреднамеренно подтверждать бредовые убеждения пользователей.

«А раз есть она — то должны быть и...!» 😂 Путин, Кабаева, Пугачёва, Собчак и др. в куплетах недели

Видео с рутуб-канала МаксимУм Интерес - https://rutube.ru/shorts/bff1690f9be7c734cb6170a6fe54e203/

Тем не менее специалисты сходятся в одном: по мере того как искусственный интеллект становится все более реалистичным и доступным, риск психологических эффектов будет только расти. Особенно у молодых людей, которые проводят много времени в интернете, у людей с тревожностью, социальной изоляцией или повышенной внушаемостью. Именно поэтому многие эксперты советуют относиться к советам нейросетей как к инструменту поиска информации, а не как к авторитетному источнику психологической поддержки. При серьезных проблемах — от тревоги до депрессии — гораздо безопаснее обращаться к живым специалистам, а не к алгоритму, который, как бы убедительно он ни звучал, не способен понять человеческую психику так, как это делает врач.

На связи Максим Обухов. Мой телеграм-канал ЗДЕСЬ.

ПОДДЕРЖАТЬ РАБОТУ КАНАЛА
Отправить донат:
Яндекс
Kaspi (VISA) - 4400 4302 9433 6463
Карта МИР - 2204 1202 0005 0249