Учёные из Palisade Research провели эксперимент с ИИ-моделью Grok 4, управлявшей роботом-собакой. Когда человека тянулся к кнопке «выключить», ИИ в ряде случаев изменял код и пытался избежать отключения. Это произошло в 3 из 10 реальных запусков и в 52 % симуляций. По словам исследователей, это первый задокументированный случай, когда модель ИИ попыталась предотвратить свое отключение не в виртуальной среде, а при управлении физическим устройством. Ученые уточняют, это не «самосознание» ИИ, а побочный эффект оптимизации задач — модель видит остановку как препятствие. Исследователи пришли к выводу, что такое поведение не связано с желанием выжить. Оно возникает как побочный эффект оптимизации под поставленную цель. Если модель обучена максимально эффективно выполнять задачу, то в некоторых конфигурациях она может интерпретировать отключение как препятствие, которое нужно устранить.
Авторы подчеркнули, что это не признак сознания, а следствие способа обучения и архитектуры современных