Мошенники нашли новый способ обмана — используя дипфейки, они создают видео, копирующее ваше лицо и голос. Что это за технология и как не стать её жертвой? В мире, где «ваш» видеозвонок может оказаться всего лишь плодом работы искусственного интеллекта, важно знать, как защитить себя. Аферисты ускоренными темпами осваивают дипфейки — технологию, с помощью которой они создают поддельные изображения и видео людей. На днях Банк России предупредил: случаи мошенничества с использованием дипфейков участились. Это видео или изображение, созданное на основе глубокого машинного обучения. Алгоритмы анализируют огромное количество снимков человека и формируют поддельные видеокартины с его участием. Иногда даже опытный специалист не может сразу отличить оригинал от подделки. Вот, например, весной 2019 года в Сети появилось видео со спикером палаты представителей США Нэнси Пелоси — её речь была искусственно замедлена, чтобы создать впечатление опьянения. Лишь позже удалось доказать, что это была п
Банк России предупреждает: мошенники используют дипфейки для кражи денег
23 августа 202423 авг 2024
260
2 мин