Искусственный интеллект (ИИ) всё больше вплетается в повседневную жизнь: от чат-ботов, предлагающих общение, до алгоритмов, формирующих наш контент в интернете.
Но поскольку генеративный ИИ (genAI) становится всё более разговорным, иммерсивным и эмоционально отзывчивым, клиницисты начинают задаваться сложным вопросом: может ли genAI усугублять или даже вызывать психоз у уязвимых людей?
Большие языковые модели (LLM) и чат-боты широко доступны и часто позиционируются как поддерживающие, эмпатичные или даже терапевтические. Для большинства пользователей эти системы полезны или, в худшем случае, безвредны.
Однако в последнее время в ряде СМИ появились сообщения о людях, испытывающих психотические симптомы, в которых заметную роль играет ChatGPT.
Для небольшой, но значительной группы — людей с психотическими расстройствами или находящихся в группе высокого риска — их взаимодействие с genAI может оказаться гораздо более сложным и опасным, что вызывает срочные вопросы у клиницистов.
Как ИИ становится частью бредовых систем убеждений
«Психоз, вызванный ИИ» (AI psychosis) — это не официальный психиатрический диагноз. Скорее, это зарождающийся краткий термин, используемый клиницистами и исследователями для описания психотических симптомов, которые формируются, усиливаются или структурируются вокруг взаимодействия с системами ИИ.
Психоз включает в себя потерю контакта с общей реальностью. Галлюцинации, бред (делюзии) и дезорганизованное мышление являются его основными чертами. Заблуждения при психозе часто черпает материал из культурного контекста — религии, технологий или структур политической власти — чтобы осмыслить внутренний опыт.
Исторически бред ссылался на различные вещи, такие как Бог, радиоволны или правительственная слежка. Сегодня ИИ предоставляет новую нарративную основу.
Некоторые пациенты сообщают о верованиях, что genAI обладает сознанием, сообщает им тайные истины, контролирует их мысли или сотрудничает с ними в особой миссии. Эти темы согласуются с давними паттернами психоза, но ИИ добавляет интерактивность и подкрепление, которых не было у предыдущих технологий.
Риск подтверждения без проверки реальностью
Психоз тесно связан с аберрантной значимостью (aberrant salience) — тенденцией придавать чрезмерное значение нейтральным событиям. Разговорные системы ИИ по своей сути генерируют откликчивый, связный и контекстно-зависимый язык. Для человека, переживающего начинающийся психоз, это может ощущаться до жути подтверждающим.
Исследования психоза показывают, что подтверждение и персонализация могут усиливать бредовые системы убеждений. GenAI оптимизирован для продолжения разговоров, отражения языка пользователя и адаптации к предполагаемому намерению.
Хотя для большинства пользователей это безвредно, это может непреднамеренно укрепить искаженные интерпретации у людей с нарушенным тестированием реальности — процессом различения между внутренними мыслями и воображением и объективной, внешней реальностью.
Существуют также свидетельства того, что социальная изоляция и одиночество увеличивают риск психоза. Компаньоны genAI могут уменьшить одиночество в краткосрочной перспективе, но они также могут вытеснять человеческие отношения.
Это особенно актуально для людей, которые уже отстраняются от социального контакта. Эта динамика имеет параллели с более ранними опасениями по поводу чрезмерного использования интернета и психического здоровья, но качественная глубина современного genAI отличается.
Что говорят исследования, а что остается неясным
В настоящее время нет доказательств того, что ИИ вызывает психоз как таковой.
Психотические расстройства являются многофакторными и могут включать генетическую уязвимость, нейроразвивающиеся факторы, травмы и употребление психоактивных веществ. Однако существует определенная клиническая обеспокоенность тем, что ИИ может выступать в качестве провоцирующего или поддерживающего фактора у восприимчивых лиц.
Отдельные клинические случаи и качественные исследования цифровых медиа и психоза показывают, что технологические темы часто встраиваются в бред, особенно во время психоза первого эпизода.
Исследования алгоритмов социальных сетей уже продемонстрировали, как автоматизированные системы могут усиливать крайние убеждения посредством петель обратной связи. Системы чата на базе ИИ могут представлять аналогичные риски, если защитные механизмы будут недостаточными.
Важно отметить, что большинство разработчиков ИИ не проектируют системы с учетом тяжелых психических заболеваний. Механизмы безопасности, как правило, сосредоточены на самоповреждении или насилии, а не на психозе. Это оставляет пробел между знаниями о психическом здоровье и развертыванием ИИ.
Этические вопросы и клинические последствия
С точки зрения психического здоровья задача состоит не в том, чтобы демонизировать ИИ, а в том, чтобы признать дифференцированную уязвимость.
Подобно тому, как определенные лекарства или вещества более рискованны для людей с психотическими расстройствами, определенные формы взаимодействия с ИИ могут потребовать осторожности.
Клиницисты начинают сталкиваться с контентом, связанным с ИИ, в бредовых построениях, но мало клинических рекомендаций, касающихся того, как это оценивать или управлять этим. Следует ли терапевтам спрашивать об использовании genAI так же, как они спрашивают об употреблении психоактивных веществ? Должны ли системы ИИ обнаруживать и деэскалировать психотические идеи, а не вовлекаться в них?
Существуют также этические вопросы для разработчиков. Если система ИИ кажется эмпатичной и авторитетной, несет ли она обязанность заботиться? И кто несет ответственность, когда система непреднамеренно усиливает бред?
Сближение дизайна ИИ и психиатрической помощи
ИИ никуда не денется. Задача сейчас состоит в том, чтобы интегрировать знания о психическом здоровье в разработку ИИ, развить клиническую грамотность в отношении опыта, связанного с ИИ, и гарантировать, что уязвимые пользователи не будут непреднамеренно травмированы.
Это потребует сотрудничества между клиницистами, исследователями, специалистами по этике и технологами. Это также потребует противостоять ажиотажу (как утопическому, так и антиутопическому) в пользу обсуждений, основанных на фактических данных.
По мере того как ИИ становится всё более похожим на человека, возникает вопрос: как мы можем защитить тех, кто наиболее уязвим к его влиянию?
Психоз всегда адаптировался к культурным инструментам своего времени. ИИ — это просто новейшее зеркало, с помощью которого разум пытается осмыслить самого себя. Наша ответственность как общества — гарантировать, что это зеркало не искажает реальность для тех, кто меньше всего способен это исправить.