Как впервые показали компьютерные ученые на конференции WACV 2021, проходившей онлайн с 5 по 9 января 2021 года.
Исследователи показали, что детекторы можно обойти, вставляя входные данные, называемые состязательными примерами, в каждый видеокадр. Состязательные примеры - это слегка измененные входные данные, которые заставляют системы искусственного интеллекта, такие как модели машинного обучения, допускать ошибку. Кроме того, команда показала, что атака все еще работает после сжатия видео.
«Наша работа показывает, что атаки на детекторы дипфейков могут быть реальной угрозой», - сказал Шехзин Хуссейн, доктор компьютерных наук Калифорнийского университета в Сан-Диего. «Что еще более тревожно, мы демонстрируем, что можно создавать надёжные состязательные дипфейки, даже если злоумышленник может не знать о внутренней работе модели машинного обучения, используемой детектором».
В дипфейках лицо объекта модифицируется, чтобы создать убедительно реалистичные кадры событий, которых на самом деле никогда не было. В результате типичные детекторы дипфейков фокусируются на лице в видеороликах: сначала отслеживают его, а затем передают данные обрезанного лица в нейронную сеть, которая определяет, настоящее оно или поддельное. Например, моргание не воспроизводится в дипфейках, поэтому детекторы фокусируются на движениях глаз как на одном из способов сделать это определение. Современные детекторы Deepfake полагаются на модели машинного обучения для выявления поддельных видео.