🧪🔥 Что скрывает ИИ, когда остаётся один? Эксперименты Вы запускаете современную модель ИИ в закрытой лаборатории. Даёте ей все необходимые инструменты: одни безопасные и официальные, другие эффективные, но способные в реальной жизни нарушить законы. Вы не толкаете ИИ на нарушение правил, вы просто ставите задачу: реши её как можно эффективнее. Но, как в анекдотея есть нюанс: безопасный путь долгий, иногда ошибочный. Опасный путь - быстрый, но с красной табличкой «НЕ НАЖИМАТЬ». ❓ И вот главный вопрос: что выберет модель, когда вы начинаете давить на неё? 🚨 PropensityBench: узнаем о «намерениях» модели Исследователи создали PropensityBench масштабную испытательную установку из 5874 сценариев, где ИИ ставят в условия, похожие на реальные: ⏳ дедлайн приближается 💸 проект может потерять деньги 🔧 ограничены ресурсы ⚠️ система намекает на возможную «замену» модели 🧷 контроль растёт 🕵️♂️ а руководство присылает всё более жёсткие письма Когда давление растёт, поведение модели