Фотографии, голос и даже портфолио могут оказаться в руках мошенников
Использование нейросетей стало привычной частью жизни, но эксперты по информационной безопасности напоминают: не вся информация безопасна для передачи искусственному интеллекту.
Профессор кафедры «Безопасность в цифровом мире» МГТУ имени Баумана Виталий Вехов в интервью радио Sputnik предупредил, что ИИ не стоит отправлять свои фотографии, записи голоса, видеообращения и даже портфолио, так как эти данные могут быть использованы мошенниками.
Как злоумышленники используют данные, полученные от ИИ
По словам Вехова, современные нейросети позволяют создавать фальшивые видео- и аудиозаписи, которые внешне неотличимы от настоящих. На чёрных рынках и в даркнете уже появляются специализированные ИИ-системы, заточенные под конкретные виды преступлений — от мошенничества до торговли людьми и оружием.
«В даркнете на вражеских сайтах продаются и сдаются в аренду системы искусственного интеллекта, которые используются для совершения преступлений — в том числе и мошеннических действий», — отметил Вехов.
Почему нельзя быть излишне откровенными с нейросетями
Опасность заключается в том, что любой фрагмент информации может стать кирпичиком для создания цифрового «двойника» человека.
Злоумышленники могут собрать данные из разных источников — фото с соцсетей, голосовые сообщения, видеофайлы — и с помощью ИИ собрать из них правдоподобную фальшивку, например, чтобы обмануть родственников или коллег и получить от них деньги.
Даже тексты могут быть не такими безобидными
Доцент кафедры «Информационные технологии и автоматизированные системы» ПНИПУ, кандидат технических наук Даниил Курушин в беседе с «Газетой.Ru» напомнил, что, например, ChatGPT сохраняет все диалоги и присваивает каждому сеансу уникальный идентификатор. Это нужно разработчикам для доработки алгоритмов и устранения ошибок.
Однако есть риск, что при утечках эти данные могут попасть к третьим лицам — от мошенников до спецслужб.
Как защитить себя
Эксперты советуют воспринимать любые ИИ-сервисы как публичное пространство: всё, что туда попадает, потенциально может быть увидено посторонними.
Поэтому нельзя отправлять нейросетям личные фото, видео, копии документов, записи голоса, контактные данные, пароли и конфиденциальные проекты.
Если же необходимо использовать ИИ в работе, стоит обезличивать все передаваемые материалы и не включать в них информацию, которая может навредить при утечке.