Найти тему
Ferra.ru

ИИ-модель GPT-4 самостоятельно взломал уязвимости нулевого дня в 53% случаев

Исследователи продемонстрировали способность ботов на GPT-4 автономно взламывать уязвимости нулевого дня с 53-процентной вероятностью успеха. Используя новый метод Hierarchical Planning with Task-Specific Agents (HPTSA), команда автономных ботов GPT-4 скоординировала свои усилия для эксплуатации ранее неизвестных дефектов безопасности более чем в половине тестовых веб-сайтов. В этом методе используется «агент планирования», который контролирует процесс и задействует множество специализированных «субагентов», что значительно повышает эффективность по сравнению с одним агентом LLM.

Это достижение основывается на результатах более ранних исследований, в которых GPT-4 успешно эксплуатировал 87% известных уязвимостей критической серьезности. В эталонных тестах на 15 реальных веб-уязвимостей HPTSA оказалась на 550% эффективнее, чем одиночные попытки, взломав 8 из 15 уязвимостей нулевого дня, в то время как один LLM справился только с тремя.

Несмотря на эти возможности, GPT-4 в режиме чат-бота (ChatGPT) по-прежнему не может автономно эксплуатировать уязвимости, обеспечивая соблюдение этических границ.