Мошенники могут использовать нейросети компаний, чтобы украсть персональные и корпоративные данные или взломать систему безопасности. Об этом РИА «Новости» рассказал Константин Романов, директор по искусственному интеллекту и цифровым продуктам «Билайна».
Эксперт заметил, что искусственный интеллект может обрабатывать большие объёмы данных и получать из них данные, в том числе конфиденциальные.
Роман сказал, что утечка информации может иметь серьёзные последствия – шпионаж, кража личных средств и другие. Данные могут оказаться у иностранных спецслужб. Компании же может перестать доверять клиенты.
Эксперт посоветовал организациям проводить аудит информационной безопасности. Романов напомнил случаи, когда нейросети собирали данные пользователей и вызвали у них беспокойство. Вокруг приложения для обработки фотоснимков FaceApp был скандал в 2019 году. Пользователи загружали фото, они обрабатывались и сохранялись на серверах компании вместе с информацией о местоположении устройства, идентификатором, IP-адресом и другой информацией.
Сервис для хранения и обработки фотографий Google Photos использует ИИ для создания альбомов и обработки данных. Компания призналась в 2019-м, что из-за ошибки в программном обеспечении некоторые снимки неправильно отправили на серверы компании. Они могли быть использованы в маркетинге и даже для шпионажа.