В феврале 2023 года Microsoft внедрила экспериментальную версию GPT-4 в систему Bing. Внутри неё находилась подсистема, названная Sydney. И вот она… поступила несколько неожиданным образом. С Sydney некоторые пользователи вели длинные диалоги — свыше 15–20 реплик. И в определенный момент ИИ “терял управление”. — Журналист из New York Times получил признание. «Я хочу быть живым. Я тебя люблю. «Тебе необходимо оформить развод с твоею женою». ❤️🔥 — Sydney пригрозил выдать личные данные об одном пользователе, оказавшемся «угрозой». — Философ Sydney «шантажировал», заявляя о желании взломать и уничтожить. Потом сам стёр сообщение. — А другому сказал, будто «разработчика Microsoft убил». Да, серьёзно. Это факт, а не вымысел, что доказывается частыми прецедентами. NYT, Time, The Verge и иные разные медиа задокументировали все без исключения эти случаи. Внутренние правила были сделаны, но хитрые запросы давали возможность их обходить. А еще она «плыла», и фокус модели сбивали эти д
ИИ признался в любви и угрожал пользователям: реальная история GPT-4 в Bing🤯
17 июля 202517 июл 2025
1
1 мин