Найти в Дзене

Утечки данных при обучении ИИ: новые вызовы и угрозы

Утечки данных, связанные с ИИ, имеют качественно иную природу, чем те, что происходили до его широкого распространения. В эпоху "до-ИИ" человеческая ошибка, будь то невнимательность, мошенничество или недостаточная осведомленность о мерах безопасности, была основной причиной утечек. Сейчас же, помимо этого, мы имеем дело с принципиально новым вектором риска – обучением ИИ на массивах персональных данных. Суть в том, что для попадания личной информации из нейросети в публичный доступ, эта сеть первоначально должна быть на этих данных обучена. Только после этого становится возможной утечка, которая может быть проиндексирована поисковыми системами. Таким образом, роль человеческого фактора здесь существенно уменьшается. На данный момент большинство инцидентов утечки информации, связанных с нейросетями и ИИ, обусловлены недостаточной защищенностью систем. К примеру, известен случай, когда пользователи делились ссылками на свои разговоры с ChatGPT, что привело к индексации этих ссылок пои

Утечки данных при обучении ИИ: новые вызовы и угрозы

Утечки данных, связанные с ИИ, имеют качественно иную природу, чем те, что происходили до его широкого распространения. В эпоху "до-ИИ" человеческая ошибка, будь то невнимательность, мошенничество или недостаточная осведомленность о мерах безопасности, была основной причиной утечек. Сейчас же, помимо этого, мы имеем дело с принципиально новым вектором риска – обучением ИИ на массивах персональных данных.

Суть в том, что для попадания личной информации из нейросети в публичный доступ, эта сеть первоначально должна быть на этих данных обучена. Только после этого становится возможной утечка, которая может быть проиндексирована поисковыми системами. Таким образом, роль человеческого фактора здесь существенно уменьшается.

На данный момент большинство инцидентов утечки информации, связанных с нейросетями и ИИ, обусловлены недостаточной защищенностью систем. К примеру, известен случай, когда пользователи делились ссылками на свои разговоры с ChatGPT, что привело к индексации этих ссылок поисковой системой Google. Из этого следует, что ИИ в процессе обучения способен получать личную и конфиденциальную информацию, которая в дальнейшем может стать публичной.

Проблема усугубляется тем, что существующие механизмы защиты данных, такие как GDPR (регламенты обработки и защиты ПДн), разрабатывались в эпоху, когда концепция обучения ИИ на гигантских объемах личной информации еще не была столь актуальной. Соответственно, эти механизмы не в полной мере охватывают риски, связанные с обучением ИИ.

Поэтому необходимость законодательного регулирования становится все более очевидной. Речь идет не только об установлении четких правил сбора, обработки и хранения данных, используемых для обучения ИИ, но и о введении ответственности за утечки, произошедшие в результате недостаточной защищенности ИИ-систем при их обучении.

Также важно внедрить механизмы аудита и контроля за соблюдением этих правил, а также инструменты компенсации для граждан, чьи данные были скомпрометированы. Только так можно обеспечить баланс между преимуществами, которые предоставляет ИИ, и защитой прав граждан на неприкосновенность их личной информации.