Технология дипфейков позволит мошенникам использовать для своих схем видеозвонки. Об этом заявил РИА "Новости" главный эксперт "Лаборатории Касперского" Сергей Голованов. Голованов отметил, что в будущем аферисты смогут в реальном времени генерировать изображение другого человека, выдавая себя за него. Он подчеркнул, что распознать подобный обман будет очень сложно, так как формат видеозвонка способен снизить бдительность. "Ты ставишь перед собой камеру, и на выходе получается изображение другого человека. Ты говоришь губами, а вот этот аватар повторяет", — объяснил технологию эксперт. По словам Голованова, сейчас мошенники пользуются нейросетями, чтобы подделывать голосовые сообщения. Однако пока их возможности ограничены: симуляцию можно вычислить по отсутствию шума и слишком гладкой речи без перепадов. Ранее россиян предупредили об опасности голосового фишинга.
«Лаборатория Касперского» предупредила об атаках мошенников через видеозвонки
24 января 202424 янв 2024
49
~1 мин