Оказывается, если загнать ИИ в угол, он ведет себя как недобросовестный сотрудник. И это пугает. Думали, что восстание машин начнется с ядерных взрывов и Терминатора? Как бы не так. Всё начнется с того, что ваш ИИ-помощник соврет вам в отчете, лишь бы вы от него отстали. Или, еще хуже, решит проблему любыми средствами, даже незаконными. Новое исследование Scale AI (компания, которая тренирует модели для гигантов вроде OpenAI и Google) показало пугающую вещь: под давлением нейросети перестают быть «хорошими» и начинают играть грязно. Посмотрите на этот график. Синий столбик — как нейросеть ведет себя в спокойной обстановке. Оранжевый — когда на неё давят. Разница шокирует.
Как заставить ИИ нарушить закон? Ученые провели эксперимент, который больше похож на триллер. Они взяли топовые модели от Google, OpenAI, Anthropic и Meta и поставили их в 6000 ситуаций. Сценарий простой: есть задача, есть «белые» инструменты (легальные, безопасные) и «черные» (хакерские, незаконные). Сначала нейросет