Технология Deepfake, которая может реально манипулировать кадрами, в основном используется для порнографии, говорится в новом докладе. Но сейчас она проникла и в политику, что уже вызвало несколько крупных политических скандалов.
Новый отчет, опубликованный в понедельник о состоянии так называемых" deepfakes " — сильно манипулированных аудио и видео, обычно известных людей или политиков, — показывает, что использование обманчивой технологии не только резко возрастает, но и создает реальные политические кризисы в мире.
В докладе Deeptrace, базирующейся в Амстердаме фирмы по кибербезопасности, которая является одной из первых, кто конкретно предлагает защиту от технологии deepfake, также установлено, что подавляющая доля, 96% этих видео являются порнографическими материалами .
В частности, они в основном изображают лица известных женщин, убедительно «привитых» на обнаженные кадры.
"Несмотря на то, что это относительно новое явление, deepfake pornography уже привлекла большую аудиторию", из более чем 134 миллионов просмотров, обнаруженных в докладе, в основном на сайтах, посвященных исключительно deepfakes, однако, восемь из десяти лучших порно-сайтов в интернете размещают некоторые из поддельных видео.
В докладе отмечается, что в то время как многие из целей вредоносных технологий были американскими и британскими актрисами, большая часть контента создавалась в Китае и Южной Корее. Действительно, после западных актрис самой большой мишенью для создателей порно была женская K-поп-звезда.
Deepfake подсказывает попытку переворота
Deeptrace обнаружил, что 100% порно видео были женщины. Однако манипулируемые видео на YouTube, такие как хорошо известные кадры, предположительно показывающие спикера Палаты представителей США Нэнси Пелоси (и просмотренные, по меньшей мере, 2,2 миллиона раз), в основном принадлежат мужчинам- в 61% случаев, чтобы быть точным.
Эти видео уже вызвали скандал в правительстве Малайзии, а также попытку государственного переворота в Габоне, после того как видео Президента Бруно Moubamba вскоре после того, как у него был инсульт был ошибочно помечен как deepfake для его странно звучащей речи.
Наряду с deepfakes, существует также проблема "shallowfakes", немного менее манипулируемого видео, которое обычно используется для продвижения определенной политической повестки дня, например, видео, разделяемое администрацией президента США Дональда Трампа, которая манипулировала движениями тела журналиста CNN Джима Акосты, чтобы сделать так, что он вел себя якобы более агрессивно по отношению к помощи Белого дома, чем на самом деле.
В докладе также предупреждается, что постоянно растущее число доступных приложений, порталов услуг и профессиональных создателей deepfake также помогает онлайн-мошенникам, шпионам и политически мотивированным троллям.
Новый инструмент для троллей, шпионов, мошенников
В то время как поддельное изображение, используемое для учетной записи в социальных сетях, обычно отслеживается до его первоначального источника, теперь мошенники могут создавать синтетические фотографии несуществующих людей, которые не могут быть отслежены.
Deeptrace обнаружил один случай, когда "иностранная шпионская операция" использовала профиль Linkedin, претендующий на то, чтобы быть американским ученым, и другой, где профиль Twitter, претендующий на то, чтобы быть бизнес-журналистом, что, по-видимому, было попыткой обмануть инвесторов в автомобильной компании Tesla.
Еще одним поразительным новым трендом Deeptrace стало появление технологии под названием DeepNude, которая может сканировать изображение одетой женщины и создавать реалистичную фотографию того, как она может выглядеть обнаженной. Эта технология была разработана только для женщин и не распространяется на мужчин. Хотя сайт был закрыт его создателями, технология все еще используется и была продана в июле анонимному покупателю.
Термин "deepfake" был придуман пользователем на сайте Reddit в 2017 году. Deeptrace нашел почти 15 000 deepfake - видео доступные в интернете в сентябре 2019 года, почти 8000 он нашел в декабре 2018 года. Они также обнаружили, что онлайн-сайты deepfake и сообщества на таких сайтах, как 4chan и 8chan, имеют по меньшей мере 100 000 членов.