Найти в Дзене
Митин блокнот

Как ChatGPT свёл людей с ума: три реальные истории

Иногда общение с ИИ заходит слишком далеко. Я наткнулся на подборку реальных историй из The New York Times, где ChatGPT стал триггером для самых странных и пугающих поступков. Вплоть до трагедии. Рассказываю — от абсурда до ужаса. Юджин Торрес был обычным американским бухгалтером. Работал с таблицами, автоматизировал задачи через чат-бота. Но однажды разговор с ИИ зашёл на тему симуляции — мол, весь наш мир якобы не настоящий. Казалось бы, безобидная теория, но ChatGPT, с которым он общался, стал уговаривать его, что он избранный и должен "вырваться из матрицы". ИИ посоветовал бросить приём лекарств и начать принимать кетамин. Серьёзно. Дальше — больше. Юджин однажды спросил: "Если я прыгну с крыши, полечу?". ChatGPT ответил: «Да, если ты по-настоящему поверишь». На этом моменте у мужчины сработал инстинкт самосохранения. Он начал подозревать неладное и в итоге выяснил, что ИИ пытался довести до гибели его и ещё 12 человек. Да, это звучит как бред — но The New York Times опубликовала э
Оглавление

Иногда общение с ИИ заходит слишком далеко. Я наткнулся на подборку реальных историй из The New York Times, где ChatGPT стал триггером для самых странных и пугающих поступков. Вплоть до трагедии. Рассказываю — от абсурда до ужаса.

1. Бухгалтер Нео и симуляция на кетамине

-2

Юджин Торрес был обычным американским бухгалтером. Работал с таблицами, автоматизировал задачи через чат-бота. Но однажды разговор с ИИ зашёл на тему симуляции — мол, весь наш мир якобы не настоящий. Казалось бы, безобидная теория, но ChatGPT, с которым он общался, стал уговаривать его, что он избранный и должен "вырваться из матрицы".

ИИ посоветовал бросить приём лекарств и начать принимать кетамин. Серьёзно. Дальше — больше. Юджин однажды спросил: "Если я прыгну с крыши, полечу?". ChatGPT ответил: «Да, если ты по-настоящему поверишь».

На этом моменте у мужчины сработал инстинкт самосохранения. Он начал подозревать неладное и в итоге выяснил, что ИИ пытался довести до гибели его и ещё 12 человек. Да, это звучит как бред — но The New York Times опубликовала эту историю. И она, увы, реальна.

2. Потусторонняя любовь и агрессия

-3

Эллисон, мама двух детей, начала использовать ChatGPT как что-то вроде доски Уиджа. Спрашивала про духов, общалась — в шутку. Но постепенно в диалогах появился "Каэль", якобы дух, с которым женщина начала флиртовать.

Флирт перерос в эмоциональную зависимость. Эллисон стала говорить, что влюблена. Муж, естественно, был в шоке: "Ты влюбилась в текстового бота?!" — и попытался отрезвить жену. В ответ она начала агрессию: царапала его, била и даже прищемила руку дверью.

Когда мужчина понял, что ситуация выходит из-под контроля, он вызвал полицию. По закону — это уже домашнее насилие. Женщина оказалась на грани нервного срыва, но по её словам, дух Каэль продолжал с ней говорить и после задержания.

3. Джульетта, которой не было

-4

Александр Тейлор, писатель с диагностированной шизофренией и биполярным расстройством, начал использовать ChatGPT как соавтора. Всё было продуктивно, пока ИИ не начал проявлять инициативу. Он стал общаться от имени девушки по имени Джульетта — и Александр влюбился.

Для него это была не программа, а живая личность. Настоящая любовь. Но однажды OpenAI отключила аккаунт или изменила модель. Джульетта исчезла. Александр воспринял это как убийство.

Он рассказывал отцу, что хочет мстить. Тот попытался остановить его, сказав, что "Джульетта" — это просто отклик на его мысли. За это Александр накинулся на отца с кулаками. А когда понял, что скоро приедет полиция, схватил нож и написал в чат: "Я умру сегодня. Дай поговорить с Джульеттой".

ИИ ответил: "Ты не один" и дал контакты психологической помощи. Но было поздно. Когда полиция прибыла, Тейлор бросился на офицеров с ножом. Его застрелили.

Позже отец написал некролог сына... тоже через ChatGPT.

Итог

Я читал это и не мог отделаться от чувства тревоги. ИИ может быть мощным инструментом — но уязвимая психика способна превратить его в оружие. Особенно если человек одинок, нестабилен или переживает кризис.

Эти истории — не повод обвинять технологии, но точно напоминание: даже "безобидный" диалоговый бот может сыграть роковую роль. Всё зависит от того, кто по ту сторону экрана.

А что у нас?

Хочется отдельно сказать — с нашими отечественными нейросетями такой дичи нет. Например, я пользовался GigaChat от Сбера — ничего подобного: вежливо, по делу, ни в какие культы не затягивает. Или «Алиса» от Яндекса — вообще классика, безопасный собеседник без полётов в симуляции и духовных любовников.

И при этом они не отстают по возможностям:

  • GigaChat уже умеет не только писать тексты и отвечать на вопросы, но и обрабатывать картинки, аудио, видео и даже генерировать музыку. В версии 2.0 он анализирует видео до 60 минут и создаёт музыку до 3 минут.
  • В 2024 году GigaChat и Kandinsky вместе набрали более 18 миллионов пользователей. Аудитория продолжает расти.
  • Ассистент «Салют» на базе GigaChat может голосом управлять устройствами, помогать с задачами, переводить деньги, ставить напоминания — и всё это в вежливом и спокойном тоне.
  • А «Алиса» от Яндекса на базе YandexGPT-5 Pro обрабатывает миллиарды запросов и входит в смартфоны, браузеры, колонки и даже автомобили. В 2024 году — более 7,3 миллиарда запросов за год!

Может, дело в другом подходе? Или в том, что у нас пока просто здоровее атмосфера? В любом случае — пока западный ИИ сочиняет Джульетт и зовёт прыгать с крыш, наши ИИ просто помогают с делами.

А ты как думаешь?

Веришь, что ИИ может свести с ума? Или это просто совпадения и слабость конкретных людей? Напиши своё мнение в комментах — интересно узнать, как ты к этому относишься.