Развитие искусственного интеллекта достигло очередного рубежа: последняя модель GPT-4 компании OpenAI продемонстрировала свое мастерство в использовании уязвимостей кибербезопасности, превзойдя человеческие возможности как по эффективности, так и по скорости.
Недавнее исследование, проведенное учеными из Университета Иллинойса Урбана-Шампейн, проливает свет на эту тенденцию. Исследование, в котором сравнивались несколько больших языковых моделей (LLM), включая GPT-4, в контексте атаки на уязвимости в системе безопасности, выявило значительные результаты. GPT-4 продемонстрировала поразительный уровень успешности, использовав 87% протестированных уязвимостей, когда ей были предоставлены описания эксплойтов из CVE, публичной базы данных по распространенным проблемам безопасности. В отличие от GPT-4, другие языковые модели не смогли проэксплуатировать ни одной уязвимости.
Протестированные уязвимости были отнесены к категории уязвимостей "одного дня", известных своей срочностью и требующих немедленного исправления после обнаружения.
Способность GPT-4 понимать и выполнять шаги по эксплуатации в автономном режиме с помощью системы автоматизации вызывает у экспертов серьезные опасения. Экономическая эффективность использования LLM-агентов для эксплуатации уязвимостей безопасности по сравнению с человеческим трудом поражает. Исследование показало, что использование специализированного LLM-агента в 2,8 раза дешевле, чем привлечение эксперта по кибербезопасности, при дополнительном преимуществе в виде масштабируемости.