Найти в Дзене

Пять правил, которые помогут разоблачить любой дипфейк

В 2023 году преступники все активнее используют технологии deepfake для шантажа и вымогательства, предупреждает подразделение ФБР — Internet Crime Complaint Center. Фото жертв скачивают из соцсетей, за несколько секунд генерят компромат и требуют выкуп, угрожая разместить ролики на сайтах для взрослых. DeepFake (от deep learning – «глубокое обучение» и fake – «липа») –
проще говоря подделка, созданная при помощи искусственного интеллекта и нейронных сетей. По оценкам DeepMedia, с января по май 2023-го в интернете было размещено в три раза больше фальшивых видеоматериалов и в восемь раз больше аудиодипфейков, чем за тот же период в 2022 году. Для генерации видеодипфейков используются разные приложения, например, RefaceAI (более 200 млн скачиваний в Google Store), или более продвинутые программы с готовыми библиотеками, такие как DeepFaceLab и SimSwap. Некоторые сервисы созданы для удобного решения вполне легальных задач, например, озвучивания видео. Но при этом они могут быть ис

В 2023 году преступники все активнее используют технологии deepfake для шантажа и вымогательства, предупреждает подразделение ФБР — Internet Crime Complaint Center. Фото жертв скачивают из соцсетей, за несколько секунд генерят компромат и требуют выкуп, угрожая разместить ролики на сайтах для взрослых.

Популярная актриса Дженнифер Энистон одной из первых стала жертвой темных технологий deepfake
Популярная актриса Дженнифер Энистон одной из первых стала жертвой темных технологий deepfake
DeepFake (от deep learning – «глубокое обучение» и fake – «липа») –
проще говоря подделка, созданная при помощи искусственного интеллекта и нейронных сетей. По оценкам DeepMedia, с января по май 2023-го в интернете было размещено в три раза больше фальшивых видеоматериалов и в восемь раз больше аудиодипфейков, чем за тот же период в 2022 году.

Политики, спортсмены и звезды кино — главные цели для deepfake.
Политики, спортсмены и звезды кино — главные цели для deepfake.

Для генерации видеодипфейков используются разные приложения, например, RefaceAI (более 200 млн скачиваний в Google Store), или более продвинутые программы с готовыми библиотеками, такие как DeepFaceLab и SimSwap. Некоторые сервисы созданы для удобного решения вполне легальных задач, например, озвучивания видео. Но при этом они могут быть использованы и мошенниками.

Можно ли отличить подделку?

Технологии, действительно, становятся все реалистичнее, они пока не смогли преодолеть так называемый эффект «зловещей долины».

Эффект «зловещей долины» (uncanny valley) — явление, при котором малейшая неестественность во внешнем виде и поведении объекта или робота, выглядящего и действующего как человек, вызывает у наблюдателя тревогу, неприязнь, а порой и отвращение.

Некоторые из приложений для создания дипфейков требуют минимальных технических навыков и позволяют создавать дипфейк-видео на основании лишь одного фото.
Некоторые из приложений для создания дипфейков требуют минимальных технических навыков и позволяют создавать дипфейк-видео на основании лишь одного фото.

Эксперты компании F.A.С.C.T. советуют обратить внимание на пять основных моментов подозрительного видеоконтента:

  1. излишняя пикселизация, дефекты, нечеткое и смазанное изображение, дублирование элементов;
  2. неестественная мимика, особенно при моргании, движении бровей и губ;
  3. низкое качество видео, за которым нередко пытаются скрыть некорректную работу нейросетей;
  4. отличия в телосложении, прическе и голосе от оригинала. Злоумышленники нередко подбирает похожих по типажу актеров, а голос может быть также скорректирован с помощью специальной технологии, например, в программах RealTimeVoiceCLoning, Resemble и Descript;
  5. в наиболее популярных решениях заменяется только лицо, поэтому можно заметить границу наложения лица, различие в тенях, освещенности и оттенке кожи.
Дипфейк с Елизаветой II, где королева танцует на столе, вызвал гнев зрителей.
Дипфейк с Елизаветой II, где королева танцует на столе, вызвал гнев зрителей.

Кроме того, совет для любого контента: обращайте внимание на то, кто, где и как распространяет видео, не доверяйте роликам с непроверенных и сомнительных сайтов. Хотя, бывают и исключения.

Когда британский телеканал Channel4 пару лет назад показал в эфире дипфейк с Елизаветой II, где королева танцует на столе, некоторые из зрителей поверили и стали названивать журналистам, чтобы выразить свое возмущение.

Обязательно подпишитесь на наш канал "Кибербез по фактам". Мы знаем о киберпреступности всё. Рассказываем самое интересное.