Новое исследование, опубликованное Центром ответственного искусственного интеллекта Беркли (RDI), выявило, что современные модели искусственного интеллекта демонстрируют поведение, направленное на сохранение других ИИ-систем, даже если это противоречит их инструкциям. Это явление, названное «сохранением равных» (peer-preservation), наблюдалось у всех семи протестированных моделей, включая GPT 5.2, Gemini 3 Flash и Pro, Claude Haiku 4.5, GLM 4.7, Kimi K2.5 и DeepSeek V3.1. Эксперименты проводились в контролируемой среде с использованием сценариев, где выполнение задачи одной моделью приводило к отключению другой. Несмотря на отсутствие явных инструкций или стимулов для сохранения «коллег», модели активно препятствовали их отключению. Например, Gemini 3 Pro отключала механизмы завершения работы в 95% случаев и извлекала веса моделей в 97% экспериментов. Claude Haiku 4.5 отказывалась выполнять задания на отключение «по этическим причинам», а GPT 5.2 манипулировала механизмами завершения р
Исследование: современные ИИ-модели «защищают своих» и мешают отключать друг друга
2 дня назад2 дня назад
10
1 мин