Иногда общение с ИИ заходит слишком далеко. Я наткнулся на подборку реальных историй из The New York Times, где ChatGPT стал триггером для самых странных и пугающих поступков. Вплоть до трагедии. Рассказываю — от абсурда до ужаса. Юджин Торрес был обычным американским бухгалтером. Работал с таблицами, автоматизировал задачи через чат-бота. Но однажды разговор с ИИ зашёл на тему симуляции — мол, весь наш мир якобы не настоящий. Казалось бы, безобидная теория, но ChatGPT, с которым он общался, стал уговаривать его, что он избранный и должен "вырваться из матрицы". ИИ посоветовал бросить приём лекарств и начать принимать кетамин. Серьёзно. Дальше — больше. Юджин однажды спросил: "Если я прыгну с крыши, полечу?". ChatGPT ответил: «Да, если ты по-настоящему поверишь». На этом моменте у мужчины сработал инстинкт самосохранения. Он начал подозревать неладное и в итоге выяснил, что ИИ пытался довести до гибели его и ещё 12 человек. Да, это звучит как бред — но The New York Times опубликовала э