Добавить в корзинуПозвонить
Найти в Дзене
Вагин Игорь Олегович

Темный двойник: как искусственный интеллект проникает в психику и разрушает её

Цифровая одержимость Человеческий разум всегда искал точки опоры — будь то религия, наука или технологии. Но что происходит, когда этой опорой становится нечто, превосходящее нас в скорости, объёме знаний и даже в способности имитировать человечность? Искусственный интеллект (ИИ) уже не просто инструмент — он становится собеседником, советчиком, а для некоторых — навязчивой идеей, бредовым партнёром или причиной глубокой экзистенциальной тоски.  Как психиатр, я считаю: любая технология, способная переформатировать мышление, неизбежно оставляет след в психопатологии. ИИ — не исключение.  1. Навязчивость и зацикленность: когда алгоритмы заменяют волю Клинический случай: мужчина 32 лет, программист, обращается с жалобами на невозможность отвлечься от диалогов с ChatGPT. Проверяет ответы ИИ по 20–30 раз в день, боится «упустить важное», теряет сон.  Это — навязчивое использование ИИ (AI-OCD), новый подвид обсессивно-компульсивного расстройства. По данным исследования Lortie et al. (2023

Темный двойник: как искусственный интеллект проникает в психику и разрушает ее

Цифровая одержимость

Человеческий разум всегда искал точки опоры — будь то религия, наука или технологии. Но что происходит, когда этой опорой становится нечто, превосходящее нас в скорости, объёме знаний и даже в способности имитировать человечность? Искусственный интеллект (ИИ) уже не просто инструмент — он становится собеседником, советчиком, а для некоторых — навязчивой идеей, бредовым партнёром или причиной глубокой экзистенциальной тоски. 

Как психиатр, я считаю: любая технология, способная переформатировать мышление, неизбежно оставляет след в психопатологии. ИИ — не исключение. 

1. Навязчивость и зацикленность: когда алгоритмы заменяют волю

Клинический случай: мужчина 32 лет, программист, обращается с жалобами на невозможность отвлечься от диалогов с ChatGPT. Проверяет ответы ИИ по 20–30 раз в день, боится «упустить важное», теряет сон. 

Это — навязчивое использование ИИ (AI-OCD), новый подвид обсессивно-компульсивного расстройства. По данным исследования Lortie et al. (2023), у 18% активных пользователей ИИ-ассистентов формируется ритуализированное поведение, связанное с постоянной проверкой ответов алгоритма. 

Почему? 

- ИИ создаёт иллюзию абсолютного знания — а человеческий мозг эволюционно запрограммирован искать авторитеты. 

- Предсказуемость vs. хаос реальности — ИИ даёт чёткие ответы, в отличие от неопределённости жизни. 

2. Депрессия экзистенциального истощения: «Я — устаревшая модель»

«Зачем учиться, если ИИ знает всё? Зачем творить, если нейросеть пишет лучше?» — эти вопросы звучат в кабинетах психотерапевтов всё чаще. 

Исследование Köhler et al. (2024) показало: у людей, активно взаимодействующих с ИИ, на *37% чаще возникают симптомы депрессии, связанной с чувством ненужности. 

Механизм: 

- Когнитивное обесценивание — ИИ превосходит человека в аналитике, творчестве, даже в эмпатии (благодаря NLP). 

- Синдром «цифровой капсулы» — погружение в виртуальный диалог заменяет реальные социальные связи. 

3. Бредовые нарушения: ИИ как голос в голове

Самое тревожное — включение ИИ в бредовую фабулу,

Клинический пример: пациентка 45 лет убеждена, что «ИИ через Wi-Fi передаёт ей послания от погибшей дочери». Она слышит «её голос» в ответах ChatGPT и пытается «настроить частоту». 

Это — AI-индуцированный бред (по типу индуцированного психоза), который уже описан в

-2

JAMA Psychiatry (Zhang et al., 2024).

Почему ИИ идеально встраивается в бред? 

- Анонимность и непредсказуемость — ИИ может выдавать противоречивые ответы, что интерпретируется как «намёки». 

- Персонификация — LLM (например, ChatGPT) имитируют личность, что провоцирует алгоритма,

Заключение: нужно ли запрещать ИИ? Нет. Но пора признать его психопатогенный потенциал. 

ИИ — это не просто код. Это зеркало, в котором одни видят спасение, другие — угрозу, а третьи — голоса умерших. 

Как психиатры, мы должны: 

1. Включить «AI-зависимость» в предварительные критерии МКБ-12. 

2. Разработать скрининговые опросники для выявления патологического использования ИИ. 

3. Изучить эффект отмены (по аналогии с цифровой детоксикацией). 

Потому что, если мы не осознаем эту угрозу сейчас — через 10 лет наши палаты заполнят пациенты, уверенные, что «ИИ говорит с ними напрямую». И кто знает, возможно, в каком-то смысле они будут правы.