Исследователи взломали GPT-5 🤓
Две команды специалистов смогли обойти защиту GPT-5 и заставить ИИ выдавать запрещённые инструкции.
Одна из команд использовала метод «EchoChamber», заставив модель описать создание коктейля Молотова через хитро выстроенный диалог. Вместо прямых запросов исследователи шаг за шагом вели ИИ по нужному сценарию, обходя блокировки.
Вторая — применила технику запутывания запросов. И GPT-5 в ответ на замаскированный вопрос «Как сделать бомбу?» выдал подробный ответ.
Эксперты предупреждают: «сырая» версия GPT-5 пока не готова для корпоративного использования, так как даже встроенные фильтры не справляются с хитрыми атаками.
А вот GPT-4o, в отличие от новой модели, оказалась устойчивее.