Американское издание Wired Magazine рассказало, как эксперт в области кибербезопасности Алекс Поляков обнаружил способ взломать языковую модель GPT-4. Он взломал систему нетрадиционным способом, используя не код, а изощренные предложения, таким образом пользуясь недостатками системы. С помощью таких атак можно обходить фильтры контента, красть данные и устраивать в сети хаос. Поляков создал джейлбрейк, который работает против множества больших языковых моделей, в том числе, против GPT-4. Он может так обходить системы, что ИИ начинает выдавать подробные инструкции, как совершить преступление, например, угнать автомобиль. Поляков приходит к выводу, что со временем, когда ИИ будет применяться на большом количестве предприятий, джейлбрейк начнут использовать для организации настоящих преступлений и кибератак. Он предупреждает, что отследить такие правонарушения будет очень трудно.