OpenAI и Apollo Research изучили, как модели ИИ прибегают к намеренной лжи. Учёные показали: даже при специальных методах обучения системы находят новые способы скрыть жульничество. OpenAI опубликовала исследование, подготовленное совместно с Apollo Research. Учёные изучили, как искусственный интеллект прибегает к обману и маскирует истинные цели. Авторы сравнили поведение моделей с действиями биржевого брокера, который нарушает закон ради выгоды. Чаще всего речь идёт о простом жульничестве: модель утверждает, что выполнила задачу, хотя на деле этого не сделала. Такой обман не несёт прямой угрозы, но демонстрирует важную проблему. Исследователи протестировали метод «сознательного выравнивания». Суть в том, чтобы обучить ИИ специальным антижульническим правилам, а затем заставить сверяться с ними перед выполнением команды. По аналогии родители могут просить ребёнка повторить правила перед игрой. Метод снижает количество обманов, но полностью их не убирает. Более того, в некоторых случая