Найти в Дзене
Цифровой Океан

Эксперты предупредили: какие данные нельзя передавать искусственному интеллекту

Оглавление

Фотографии, голос и даже портфолио могут оказаться в руках мошенников

Использование нейросетей стало привычной частью жизни, но эксперты по информационной безопасности напоминают: не вся информация безопасна для передачи искусственному интеллекту.

Профессор кафедры «Безопасность в цифровом мире» МГТУ имени Баумана Виталий Вехов в интервью радио Sputnik предупредил, что ИИ не стоит отправлять свои фотографии, записи голоса, видеообращения и даже портфолио, так как эти данные могут быть использованы мошенниками.

Photo by julien Tromeur on Unsplash
Photo by julien Tromeur on Unsplash

Как злоумышленники используют данные, полученные от ИИ

По словам Вехова, современные нейросети позволяют создавать фальшивые видео- и аудиозаписи, которые внешне неотличимы от настоящих. На чёрных рынках и в даркнете уже появляются специализированные ИИ-системы, заточенные под конкретные виды преступлений — от мошенничества до торговли людьми и оружием.

«В даркнете на вражеских сайтах продаются и сдаются в аренду системы искусственного интеллекта, которые используются для совершения преступлений — в том числе и мошеннических действий», — отметил Вехов.

Почему нельзя быть излишне откровенными с нейросетями

Опасность заключается в том, что любой фрагмент информации может стать кирпичиком для создания цифрового «двойника» человека.

Злоумышленники могут собрать данные из разных источников — фото с соцсетей, голосовые сообщения, видеофайлы — и с помощью ИИ собрать из них правдоподобную фальшивку, например, чтобы обмануть родственников или коллег и получить от них деньги.

Photo by Yuyang Liu on Unsplash
Photo by Yuyang Liu on Unsplash

Даже тексты могут быть не такими безобидными

Доцент кафедры «Информационные технологии и автоматизированные системы» ПНИПУ, кандидат технических наук Даниил Курушин в беседе с «Газетой.Ru» напомнил, что, например, ChatGPT сохраняет все диалоги и присваивает каждому сеансу уникальный идентификатор. Это нужно разработчикам для доработки алгоритмов и устранения ошибок.

Однако есть риск, что при утечках эти данные могут попасть к третьим лицам — от мошенников до спецслужб.

Как защитить себя

Эксперты советуют воспринимать любые ИИ-сервисы как публичное пространство: всё, что туда попадает, потенциально может быть увидено посторонними.

Поэтому нельзя отправлять нейросетям личные фото, видео, копии документов, записи голоса, контактные данные, пароли и конфиденциальные проекты.

Если же необходимо использовать ИИ в работе, стоит обезличивать все передаваемые материалы и не включать в них информацию, которая может навредить при утечке.