Добавить в корзинуПозвонить
Найти в Дзене
SecureTechTalks

🎭 Deepfake-детекторы начинают проигрывать

Большинство систем deepfake detection работают, как поиск статистических аномалий. Модели анализируют: 🔹 микродвижения лица 🔹 артефакты compression 🔹 inconsistencies в освещении 🔹 частотные особенности изображения 🔹 temporal anomalies между кадрами Другими словами, detector пытается найти признаки того, что контент был синтетически сгенерирован. Однако современные генеративные модели начинают производить данные, статистически близкие к реальным. ⚙️ Гонка вооружений Deepfake-generation и deepfake-detection давно превратились в adversarial cycle. Детектор учится находить паттерн, а генератор учится этот паттерн скрывать. С каждой новой итерацией качество синтетического контента становится выше, а количество detectable artifacts уменьшается. Исследователи отдельно отмечают: многие современные detector’ы начинают резко терять accuracy на новых generation-моделях, для которых они изначально не обучались. Особенно плохо системы работают при: 🔹 повторном сжатии видео 🔹 изменении r

🎭 Deepfake-детекторы начинают проигрывать.

Большинство систем deepfake detection работают, как поиск статистических аномалий. Модели анализируют:

🔹 микродвижения лица

🔹 артефакты compression

🔹 inconsistencies в освещении

🔹 частотные особенности изображения

🔹 temporal anomalies между кадрами

Другими словами, detector пытается найти признаки того, что контент был синтетически сгенерирован.

Однако современные генеративные модели начинают производить данные, статистически близкие к реальным.

⚙️ Гонка вооружений

Deepfake-generation и deepfake-detection давно превратились в adversarial cycle. Детектор учится находить паттерн, а

генератор учится этот паттерн скрывать. С каждой новой итерацией качество синтетического контента становится выше, а количество detectable artifacts уменьшается.

Исследователи отдельно отмечают: многие современные detector’ы начинают резко терять accuracy на новых generation-моделях, для которых они изначально не обучались.

Особенно плохо системы работают при:

🔹 повторном сжатии видео

🔹 изменении resolution

🔹 post-processing

🔹 screen recording

🔹 смешанных pipeline генерации

Иногда достаточно обычного TikTok-style re-encoding, чтобы detection quality заметно деградировал.

🧪 Главная проблема

Детекторы всё сильнее зависят от конкретных особенностей pipeline, система часто учится распознавать не «фейк», а следы конкретной модели или конкретного способа генерации. Как только pipeline меняется, detection начинает рассыпаться.

🧨 Индустрия теряет точку опоры

Похоже, deepfake detection постепенно смещается из категории «технически решаемой задачи» в область вероятностного анализа, где речь идёт уже не о точном определении фейка, а об оценке уровня доверия к контенту.

🔗 Статья: https://arxiv.org/pdf/2605.09007

Stay secure and read SecureTechTalks 📚

#кибербезопасность #AI #Deepfake #LLM #CyberSecurity #FraudDetection #SocialEngineering #Infosec #AIrisks #SecureTechTalks