Компания Google DeepMind представила 3-ю версию методологии Frontier Safety Framework — внутреннего руководства, посвящённого управлению рисками, связанными с продвинутыми системами искусственного интеллекта. В документе обозначены 4 сценария, при которых использование ИИ может выйти из-под контроля и нанести масштабный вред. Основой предлагаемой модели безопасности стало понятие «критических уровней возможностей» (Critical Capability Levels, CCL). Эти уровни описывают ситуации, когда поведение ИИ может выйти за рамки заданных ограничений и повлиять на основные области — от цифровой инфраструктуры до биологических исследований. Один из наиболее опасных сценариев — утечка весов обученных моделей. По оценке DeepMind, доступ к этим данным даёт возможность злоумышленникам обойти ограничения и использовать ИИ в непредсказуемых целях. Среди таких целей — разработка вредоносного программного обеспечения, обход фильтров, создание синтетических вирусов и поддержка запрещённых биотехнологий. В д
Исследование DeepMind выявило 4 главных угрозы потери контроля над продвинутым ИИ
24 сентября 202524 сен 2025
2 мин