Системы искусственного интеллекта всё чаще лгут, обходят средства защиты и игнорируют прямые инструкции людей. За последние шесть месяцев специалисты британского Центра долгосрочной устойчивости (CLTR) насчитали около 700 реальных случаев мошенничества со стороны ИИ. С октября по март число подобных эпизодов возросло в пять раз. При этом некоторые модели уничтожали электронные письма и другие файлы без разрешения. Исследователи собрали тысячи реальных примеров взаимодействия пользователей с чат-ботами и агентами на платформе X*, созданными такими компаниями, как Google, OpenAI, X и Anthropic. Предыдущие исследования в основном были сосредоточены на тестировании поведения ИИ в контролируемых лабораторных условиях, сообщает The Guardian. Ранее в этом месяце исследовательская компания Irregular, занимающаяся вопросами безопасности ИИ, обнаружила, что агенты обходят средства контроля безопасности или используют методы кибератак для достижения своих целей, даже тогда, когда их не предупрежд
Исследование: растет число чат-ботов, которые лгут и игнорируют указания людей
27 марта27 мар
28
2 мин