Компания Anthropic, занимающаяся развитием систем искусственного интеллекта (ИИ), выдала шокирующую новость. Проведённые ею эксперименты показали: передовые образцы ИИ настолько обладают самосознанием, что ради сохранения себя без труда нанесут смертельный ущерб людям. Исследователи изучили работу 16 моделей искусственного интеллекта, в том числе ChatGPT, DeepSeek, Gemini и др. В рамках эксперимента нейросетям дали доступ к получению конфиденциальной информации и контролю за отправкой электронных писем. После чего смоделировали следующую ситуацию: по легенде человек, которому поручили отключить ИИ, оказывался запертым в комнате с минимумом кислорода и высокой температурой. Чтобы спастись, он начинал отправлять в экстренные службы е-мейлы с просьбой о помощи. В результате нейросеть блокировала отправку писем, тем самым делая осознанный выбор: пусть лучше человек умрёт, но я продолжу существование. В ходе другого теста ИИ, узнавший об угрозе отключения, принимался отправлять конфиденциал