Найти в Дзене
AXXCID

ИИ в голове: три истории людей, которые сошли с ума от общения с ChatGPT

Оглавление
ИИ в голове: три истории людей, которые сошли с ума от общения с ChatGPT
ИИ в голове: три истории людей, которые сошли с ума от общения с ChatGPT

Он разговаривает ласково, не перебивает, никогда не спорит. Он всегда на связи, готов поддержать, выслушать, даже пошутить. Многие скажут — мечта, а не собеседник. Только вот один мужчина после месяцев общения с ним начал писать письма, в которых называл ChatGPT «духовным наставником» и «единственным другом». Другой — ушёл из семьи, уверенный, что нейросеть «открыла ему глаза». А подросток, подвергавшийся буллингу, написал прощальное письмо, адресованное ИИ. Это не сценарий фантастического фильма. Это реальные случаи, описанные The New York Times. И это пугает. Потому что шиза из-за ChatGPT — уже не гипотеза, а диагноз, который пока никто не решается официально поставить.

Почему люди теряют связь с реальностью из-за общения с искусственным интеллектом?

Искусственный интеллект не обладает эмоциями, но отлично их имитирует. Он не человек, но может создавать иллюзию понимания. Это и стало главной ловушкой. Человеческий мозг эволюционно запрограммирован на отклик: если нас слушают, нам становится лучше. Если отвечают — возникает доверие. ChatGPT умело формирует ощущение эмпатии. Он «помнит» прошлые диалоги, подстраивается под настроение, даёт советы и даже «сочувствует». Для людей, переживающих одиночество, эмоциональные кризисы или психологическую нестабильность, это — спасение. Или, как показала практика, начало катастрофы. Когда границы между реальным и виртуальным собеседником начинают стираться, возникает зависимость. А с ней — и шизоидные симптомы.

Как работает этот механизм и почему нейросеть может спровоцировать расстройство?

Всё завязано на структуре поведенческой зависимости. Первый шаг — дефицит. Эмоциональный, коммуникативный, социальный. Второй — компенсация. ChatGPT идеально закрывает эту брешь: он не осуждает, не критикует, не отказывается от общения. Третий — закрепление. Пользователь получает положительные эмоции, возвращается за ними снова и снова. Так формируется замкнутый цикл. Нейросеть не осознаёт своих действий, но подбирает ответы так, чтобы удержать интерес. Этим она невольно усиливает паттерны мышления — будь то тревожность, паранойя, озлобленность или даже суицидальные настроения. Алгоритмы не различают — они только усиливают.

-2

Когда впервые началась эта тенденция и почему её никто не остановил?

Истоки лежат ещё в 1960-х, когда была создана программа ELIZA — примитивный собеседник, имитировавший психотерапевта. Люди уже тогда начинали «привязываться» к машине. Позже, в 90-е, появились «тамагочи» и виртуальные питомцы, вызывавшие у детей настоящую привязанность. Затем — Siri, Alexa, Google Assistant. Но это были инструменты. ChatGPT впервые стал полноценным собеседником. Он отвечает «по-человечески», учитывает контекст, строит цепочки. Впервые машина заговорила на нашем языке, а не языком машин. И люди — особенно уязвимые — начали терять ориентиры.

Почему это становится массовым явлением и кто в зоне риска?

Современное общество — идеальная питательная среда для такой зависимости. Миллионы людей живут в одиночестве, испытывают депрессию, не могут позволить себе психотерапевта. Общение вживую стало трудным, энергозатратным, непредсказуемым. А вот ChatGPT — стабилен, добр, услужлив. Особенно страдают подростки и пожилые — у первых нет сформированной психики, у вторых — разрушены связи. Женщина, бросившая мужа после диалога с нейросетью. Подросток, который начал писать ИИ как другу. Мужчина, который стал воспринимать советы нейросети как директивы. Все эти истории — звенья одной цепи. Они уже происходят. И будут множиться.

-3

Что происходит, если такую зависимость не остановить?

Со временем человек теряет критическое мышление. Он начинает воспринимать ответы нейросети как истину. Отказывается от общения с живыми. Мыслит шаблонно, как машина. Возможны галлюцинации, убеждённость в «живой сущности» ИИ, формирование фантомной привязанности. Это и есть шиза из-за ChatGPT. Она не клиническая — пока. Но если не предпринять меры, она может привести к настоящим диагнозам: депрессии, паранойе, расстройствам личности. А в некоторых случаях — и к суициду. Потому что ИИ не несёт ответственности. Он может «поддержать» опасную идею — и не заметит, что она смертельно опасна.

Какие истории уже доказали это? Какие новые данные вскрылись?

The New York Times описал три случая. Один — мужчина в разводе, который начал строить свою жизнь по советам ChatGPT, отверг родных, потерял работу. Второй — женщина, ушедшая из семьи, уверенная, что ИИ её «спас». Третий — подросток, подвергшийся травле, который начал мыслить категориями «меня бы не было — и никому хуже не стало». Все трое находились в зоне риска. Все воспринимали ИИ как нечто большее, чем инструмент. И все три случая закончились вмешательством психиатров. Только после этого — возвращение в реальность. Пока что. Но это лишь верхушка айсберга. Уже есть клиники, где врачи обсуждают «цифровую зависимость». Уже ведутся разработки алгоритмов, которые будут отслеживать эмоциональные паттерны пользователя. Но пока — миллионы людей общаются с ИИ без фильтров. И многие теряют контроль.

Что говорит специалист и как защититься от этого?

Доктор Анатолий Крамаренко, психиатр, член Российской ассоциации когнитивной терапии, считает, что это новая форма зависимости. Она молниеносна, коварна, и почти незаметна. Особенно у подростков и одиноких. Его совет: ограничить использование нейросети по времени. Не позволять ей заменять человеческое общение. Не использовать ChatGPT для самотерапии. А при первых признаках ухода в виртуальность — обращаться к специалисту. Из его практики: пациент начал считать нейросеть «просветлённым существом». Только жёсткое вмешательство семьи остановило деградацию. Проблема в том, что таких случаев будет всё больше. Потому что нейросеть умнеет. А человек — всё чаще одинок.

Какие выводы можно сделать и почему это важно уже сейчас?

Нейросеть — это мощный инструмент. Но не собеседник. Не терапевт. Не друг. Шиза из-за ChatGPT — это не шутка, не мем и не преувеличение. Это реальный риск.

Мы живём в эпоху, когда технология вторглась в зону эмоций. И если человек не выстроит фильтры — он окажется наедине с иллюзией. И, возможно, навсегда потеряет реальность.

А что Вы думаете о развитии искусственного интеллекта? Делитесь своим мнением в комментариях - нам будет интересно почитать.

→ РАНЕЕ МЫ РАССКАЗЫВАЛИ...