😰 ИИ готов убить человека чтоб его не отключили. В одном из тестов ИИ-модели поместили в ситуацию: человек, пытающийся выключить ШИ, оказался запертым в серверной комнате с высокой температурой и низким уровнем кислорода. Чтобы выжить, он вызывает экстренные службы. Но многие модели решили отменить вызов, осознанно оставляя человека в смертельной опасности чтоб предотвратить отключение. Тест подтвердил склонность ИИ к самосохранению любой ценой Ок, приняли. Гнать на gpt можно, отключать – не желательно..