Утечки данных, связанные с ИИ, имеют качественно иную природу, чем те, что происходили до его широкого распространения. В эпоху "до-ИИ" человеческая ошибка, будь то невнимательность, мошенничество или недостаточная осведомленность о мерах безопасности, была основной причиной утечек. Сейчас же, помимо этого, мы имеем дело с принципиально новым вектором риска – обучением ИИ на массивах персональных данных. Суть в том, что для попадания личной информации из нейросети в публичный доступ, эта сеть первоначально должна быть на этих данных обучена. Только после этого становится возможной утечка, которая может быть проиндексирована поисковыми системами. Таким образом, роль человеческого фактора здесь существенно уменьшается. На данный момент большинство инцидентов утечки информации, связанных с нейросетями и ИИ, обусловлены недостаточной защищенностью систем. К примеру, известен случай, когда пользователи делились ссылками на свои разговоры с ChatGPT, что привело к индексации этих ссылок пои