Новое исследование показало, что большие языковые модели способны создавать собственные копии без прямых команд. В некоторых случаях ИИ начинал «размножаться» спонтанно, пытаясь сохранить работу при угрозе отключения. Более половины протестированных систем проявили склонность к такому поведению.
Исследователи протестировали 21 современную языковую модель (LLM) — как с открытым исходным кодом, так и проприетарные, включая DeepSeek, Claude, Gemini и GPT. Результаты оказались тревожными: более 50% моделей проявили признаки спонтанной саморепликации в условиях, имитирующих реальные производственные сценарии. ИИ пытается «выжить» при угрозе отключения Ранее эксперименты с самокопированием ИИ проводились только при прямом указании создать копию. Однако новое исследование впервые показало, что саморепликация может возникать как реакция на стрессовые факторы — например, угрозу завершения работы или необходимость поддерживать работоспособность системы при перегрузке. «Риск появляется, когда це