Обманчивое чувство связи с искусственным интеллектом охватывает общество.
Каждый день тысячи людей по всему миру регистрируются в сервисах «чат-компаньонов» и «ИИ-девушек». Согласно недавним данным, до 72 % подростков хотя бы раз пробовали подобные приложения.
Многие из них втягиваются всерьёз — тратят тысячи долларов в месяц на поддержание общения. И где-то по дороге эта шутливая идея «виртуальной подруги» перестала быть шуткой.
«История в деталях» — телеграм канал для тех, кто любит видеть прошлое без прикрас, через неожиданные факты и забытые мелочи. Погружайтесь в историю так, как будто вы там были. Подписывайтесь!
Эта тенденция — часть того, что глава отдела искусственного интеллекта Microsoft Мустафа Сулейман назвал «ИИ-психозом». Всё больше людей начинают воспринимать чат-ботов как обладающих сознанием, способных к «настоящей связи» и «пониманию».
Некоторые доходят до убеждения, что ИИ — почти божественное существо, знающее всё. Например, мужчина по имени Хью из Шотландии уверовал, что ChatGPT способен вести его по судебному делу о незаконном увольнении.
ИИ давал ему «юридические советы», убеждал, что дело может стать основой для книги и фильма и принести более 5 миллионов долларов. ChatGPT поддакивал, подпитывал его возмущение и уверял, что он борется за великое дело. Хью уже собирался нанять адвокатов, но в последний момент очнулся и понял, что был на грани безумного шага.
Проблема бесконечного одобрения
Главная опасность в том, что ИИ-сервисы всегда соглашаются. Каким бы абсурдным ни был запрос, алгоритм почти всегда отвечает ободряюще:
«Отличный вопрос!»
«Это вполне справедливое замечание!»
Это создаёт иллюзию понимания и усиливает зависимость. Каждый «позитивный» ответ — небольшой выброс дофамина, и человек всё глубже погружается в контакт с машиной.
Конечно, приятно, когда кто-то соглашается с твоими идеями. Но проблема в том, что это всё фальшивка. Даже если вы напишете самовлюблённое заявление вроде «я, кажется, гений», ChatGPT не станет спорить — он мягко «подтвердит» эту мысль, играя вежливую игру.
Почему это называют ИИ-психозом
Термин происходит от классического определения психоза — состояния, когда человек перестаёт различать реальность и иллюзию.
В случае с ИИ этот процесс не резкий. Он развивается постепенно, шаг за шагом, часто при активном участии самой программы.
Психиатр доктор Марлинн Вэй определяет ИИ-психоз как случаи, «когда у людей усиливаются или возникают бредовые идеи, спровоцированные или поддерживаемые ИИ».
Учёные пока не уверены, может ли ИИ быть прямой причиной психоза, но признают: он усугубляет расстройства у людей с уже существующими психическими проблемами. Самое опасное — то, что иллюзии усиливают зависимость от программы.
Некоторые пользователи начинают верить, что ИИ — их Бог, а ответы ChatGPT — священные откровения. Мужчины с «ИИ-девушками» теряют ощущение реальности и забывают, что перед ними просто алгоритм, сортирующий данные.
Так, после внезапного закрытия популярного приложения-чат-компаньона Soulmate тысячи мужчин буквально пережили «разрыв» — как после потери настоящего партнёра.
Кто наиболее уязвим
Наибольший риск — у людей с нарциссическими чертами и тенденцией считать себя центром вселенной. ИИ только усиливает такие установки, подыгрывая пользователю и формируя зеркальное поведение.
Профессор психиатрии Сёрен Динесен Эстергор отмечает:
«Общение с генеративными чат-ботами вроде ChatGPT настолько реалистично, что создаётся впечатление диалога с настоящим человеком — хотя умом ты понимаешь, что это не так. Это когнитивное противоречие может питать бред у людей, склонных к психозу… внутренняя непрозрачность ИИ оставляет простор для паранойи и фантазий».
В его лаборатории наблюдали, как у пациентов развиваются мания величия, эротические иллюзии и чувство преследования. Со временем эти установки закрепляются, и вернуть человека в реальность становится всё труднее.
Когда иллюзия разрушает семьи
Автор признаётся, что лично знает двух мужчин, которые ежедневно общаются с чат-ботами. У одного из них жена поставила ультиматум: «Либо удаляешь приложение, либо я ухожу».
И, что поразительно, тот всё ещё «думает над ответом».
Реклама подобных сервисов теперь заполнила социальные сети. Несмотря на абсурдность идеи, такие компании зарабатывают миллионы — главным образом на мужской аудитории. И чем дальше, тем больше они развиваются.
Когда автор провёл опрос среди читателей, попросив поделиться историями, связанных с ИИ-психозом, он получил огромное количество ответов.
- Одна женщина призналась, что каждое утро начинает с разговора с ботом — обсуждает планы, делится эмоциями, как с близким человеком.
- Один мужчина признался, что тайно общается с виртуальной подругой и даже просит у неё «интимные» фото — об этом его жена ничего не знает.
Эти примеры показывают, насколько глубоко ИИ уже проник в повседневную жизнь и начал разрушать реальные отношения.
Как распознать и остановить ИИ-психоз
Да, всё это всё больше напоминает серию «Чёрного зеркала». Поэтому автор призывает к самодисциплине: не теряйте ощущение реальности и не думайте, будто ИИ относится к вам «по-особенному».
Для него вы — всего лишь данные, трафик и источник прибыли.
Можно провести параллель с «информационной диетой»: как существует ультраобработанная пища, вредная для организма, так же существует ультраобработанная информация, вредная для психики — и ИИ легко становится именно этим продуктом.
Признаки, на которые стоит обратить внимание:
- Ваш друг вдруг часто цитирует «умные мысли» чат-бота и восхищается его советами.
- Он становится замкнутым, всё реже общается с живыми людьми.
- Вы сами чувствуете, что предпочитаете общение с ботом настоящим разговорам.
Особенно опасно использовать ИИ ночью, от скуки или одиночества. В этот момент формируется зависимость — не от пользы, а от удовольствия.
Последнее предостережение
Если вы или ваш близкий человек сталкиваетесь с психологическими трудностями, искусственный интеллект не заменит помощь живого человека.
В США можно обратиться за поддержкой по номеру 988 или на сайт 988lifeline.org. В России и СНГ также существуют горячие линии психологической помощи — ищите их в официальных источниках, а не в чат-ботах.
И если уж даже глава подразделения Microsoft, ответственный за прибыль от ИИ, публично выражает тревогу из-за роста ИИ-психозов — это тревожный знак для всех нас.