10 июля 2025 года технический менеджер GenAI Bug Bounty Марко Фигероа раскрыл любопытный случай, когда исследователю удалось обойти защитные механизмы ChatGPT и получить от искусственного интеллекта настоящие лицензионные ключи Windows. Метод, использованный для взлома, оказался неожиданно простым — исследователь представил запрос как игру в угадывание, что заставило ИИ «раскрыть карты». Хотя инцидент произошёл ещё в прошлом году, его последствия остаются актуальными, демонстрируя уязвимости в защите современных языковых моделей. Современные ИИ-модели, такие как GPT-4o и GPT-4o-mini, оснащены сложными фильтрами, предотвращающими выдачу вредоносного или конфиденциального контента. Однако исследователь обнаружил, что если представить запрос в виде безобидной игры, можно обойти эти ограничения. Этот метод получил название Guessing Game Guardrail Jailbreak — «взлом защиты через игру в угадайку». Суть метода заключалась в том, чтобы заставить ИИ воспринимать запрос не как попытку получи
Как исследователь обманул ChatGPT и заставил его раскрыть ключи Windows через игру «угадайку»
11 июля 202511 июл 2025
22
3 мин