Мошенники нашли новый способ обмана — используя дипфейки, они создают видео, копирующее ваше лицо и голос. Что это за технология и как не стать её жертвой?
В мире, где «ваш» видеозвонок может оказаться всего лишь плодом работы искусственного интеллекта, важно знать, как защитить себя. Аферисты ускоренными темпами осваивают дипфейки — технологию, с помощью которой они создают поддельные изображения и видео людей. На днях Банк России предупредил: случаи мошенничества с использованием дипфейков участились.
Что же такое дипфейк?
Это видео или изображение, созданное на основе глубокого машинного обучения. Алгоритмы анализируют огромное количество снимков человека и формируют поддельные видеокартины с его участием.
Иногда даже опытный специалист не может сразу отличить оригинал от подделки. Вот, например, весной 2019 года в Сети появилось видео со спикером палаты представителей США Нэнси Пелоси — её речь была искусственно замедлена, чтобы создать впечатление опьянения. Лишь позже удалось доказать, что это была подделка.
Как действуют мошенники?
Мошенники также стали использовать дипфейки для кражи денег у доверчивых граждан. Сценарий обычно такой: злоумышленники взламывают аккаунты в соцсетях или мессенджерах, собирают фото и записи голоса, а затем создают реалистичное видео.
Такое видео обычно рассылается родственникам или друзьям жертвы с просьбой о срочной помощи. Часто мошенники изображают ситуации с авариями или болезнями, чтобы вызвать у адресата сопереживание и желание как можно скорее помочь.
Это не единственный способ обмана! У нас есть большой материал о современных мошенничествах! Изучите актуальные схемы и узнайте, как уберечь себя и близких.
Как же не стать жертвой дипфейка?
Банк России рекомендует всегда перепроверять полученную информацию, особенно если в сообщении или видео просят деньги. Позвоните человеку напрямую, чтобы убедиться в правдивости информации. Если звонок невозможен, задайте вопрос, ответ на который знаете только вы и ваш знакомый. Дипфейк часто выдаёт монотонная речь, неестественная мимика и дефекты звука.
На фоне этих событий в конце мая 2024 года в Госдуме предложили ввести уголовную ответственность за использование дипфейков с целью мошенничества. Это ещё один шаг к защите наших граждан от современных ловушек.
Проблема дипфейков серьёзна, но взвешенные и обдуманные действия помогут избежать неприятных ситуаций. Помните: мошенники всегда ищут новые способы обмана, но вооружённый знанием человек всегда на шаг впереди.
Проверяете ли вы информацию от знакомых, если она кажется подозрительной? Поддерживаете ли вы идею о введении уголовной ответственности за использование дипфейков?
Читайте дополнительно по теме: