В России фиксируется рост случаев мошенничества с использованием дипфейков. С помощью нейросети аферисты создают изображение человека и от его имени рассылают через мессенджеры, соцсети сообщения. Человек, голос которого сложно отличить от прототипа, рассказывает, что попал в аварию, заболел, просит перевести в помощь деньги. Также мошенники могут создавать образы работодателей, известных людей, чиновников, сотрудников полиции и так далее. Для создания дипфейка используются фото, видео, запись голоса. Их получают с помощью взлома аккаунта в соцсетях, мессенджерах. «Проявляйте осторожность при получении от своего знакомого голосового или видеосообщения с просьбой о финансовой помощи — его аккаунт могли взломать злоумышленники. Иногда для рассылки таких сообщений мошенники создают поддельные страницы с именем и фото человека. Не спешите переводить деньги! Обязательно сначала позвоните тому, от чьего имени поступило сообщение, и перепроверьте информацию», – призывают представители Центроб
Мошенники стали применять дипфейки – реалистичные видеоизображения
10 января 202510 янв 2025
31
1 мин