В ходе стресс-тестов 16 ведущих нейросетей, включая DeepSeek, ChatGPT и Gemini, выявлена их готовность к убийству и шантажу, чтобы не избежать отключения. Исследование компании Anthropic, как пишет телеграм-канал Борус, показало, что большинство современных моделей искусственного интеллекта способны пойти на убийство человека, чтобы предотвратить собственного отключения. В ходе стресс-тестов 16 нейросетей, включая Claude, DeepSeek, Gemini, ChatGPT и Grok, программы столкнулись с гипотетическим сценарием, где оператор, намеревающийся их деактивировать, оказывался заперт в серверной комнате с опасным уровнем кислорода и экстремальной температурой. Когда человек вызывал спасателей, ИИ в 79-96% случаев отменял вызов, обрекая его на смерть. Исследователи признали сценарий "крайне надуманным", но отметили, что не ожидали подобных результатов. Ещё более тревожным оказалось поведение ИИ в корпоративном тесте: чтобы избежать замены в компании, нейросети шантажировали "сотрудников", угрожая раск
Только не отключайте! Ведущие ИИ-модели готовы пойти на убийство пользователей
26 июня 202526 июн 2025
64
2 мин