Если вы вдруг ещё не в курсе, то Deepfake – это такая технология подмены изображений, основанная на искусственном интеллекте. Она уже не первый месяц используется различными шутниками (и учёными) для изменения картинок и видео, которые в итоге получаются ну очень реалистичными. С её помощью можно, например, изменить внешность человека, его голос, и даже то, что человек говорит на видеозаписи. А ещё можно встроить своё лицо в кадры из фильма и получить весьма похожее на правду видео.
В принципе фото- и видеоподделки в интернете далеко не новость, но Deepfake вывела их на новый уровень. Из-за массового распространения таких материалов в интернете инженеры начали создавать системы, предназначенные для их обнаружения. Но недавно исследователи рассказали о том, как можно обмануть и эти системы.
В ходе конференции WACV 2021 программисты впервые показали, что обмануть детекторы дипфейков можно, вставляя в каждый видеокадр входные данные (их ещё называют примерами состязательности или состязательными примерами). Это немного изменённые данные, заставляющие искусственный интеллект ошибаться в своих выводах.
Исследователи говорят, что это делает дипфейки ещё более серьёзной угрозой для человечества. Более того, по их словам, поддельные видео с примерами состязательности могут обмануть программу детектор, даже не зная, как работает её модель машинного обучения. Тотесть для обхода программы не нужно даже понимать, как работают её "внутренности".
Авторы провели тесты в двух сценариях: в первом "злоумышленники" имели полный доступ ко всем данным о модели детектирующей дипфейки и её параметрах; во втором они могли только запросить модель машинного обучения для определения вероятности того, что кадр будет признан поддельным.
При первом сценарии вероятность успеха подделки составила 99% для несжатого видео и 84,96% для сжатого. При втором же сценарии этот показатель составил 86,43% для несжатых видео и 78,33% для сжатых.
Это первая работа, демонстрирующая возможность обмана deepfake-детекторов. Авторы не стали демонстрировать свои коды, чтобы они не были использованы реальными злоумышленниками.
Теперь учёные рекомендуют всем создателям подобных алгоритмов использовать подход «состязательного обучения»: если технологии deepfake развиваются и уже научились обманывать современные детекторы, то и системы обнаружения должны развиваться и быть на шаг впереди.
Если вам нравятся наши новости, подписывайтесь на наш канал и не забывайте ставить лайки. Эти нехитрые действия помогают нам в развитии и сборе средств для финансирования проекта.
Также наши сообщества есть в twitter, ВК, Facebook, "Одноклассниках" и Telegram. Приходите , если вы бываете там чаще, чем на Дзене. Кроме того, там выходят наши короткие подборки новостей науки и технологий, о которых должен знать каждый.