Последнее творение OpenAI, технология GPT-4, знаменует собой значительный скачок в области мультимодальных больших языковых моделей, также называемых LLM. Помещенная в эксклюзивный пакет ChatGPT Plus для подписчиков, эта передовая модель демонстрирует удивительное мастерство в автономном выявлении уязвимостей безопасности без вмешательства человека.
Недавние разоблачения подчеркнули потенциальную возможность использования LLM и технологии чат-ботов в неблаговидных целях, примером чего является распространение самовоспроизводящихся компьютерных вирусов. Новое исследование посвящено изучению возможностей GPT-4, передового чат-бота на современном рынке.
В исследовании утверждается, что, несмотря на рост возможностей LLM, им не хватает этических рамок, регулирующих их поведение. Исследователи проанализировали целый ряд моделей, включая коммерческие предложения OpenAI, LLM с открытым исходным кодом и сканеры уязвимостей.
Ассистент профессора UIUC Дэниел Канг высоко оценил эффективность GPT-4 в эксплуатации и создании уязвимостей нулевого дня. Поскольку OpenAI уже присматривается к GPT-5, Канг ожидает, что вскоре нейросети превратятся в доступные инструменты для ещё большей эксплуатации уязвимостей.