Найти в Дзене

La course a commencé à créer la technologie capable de détecter les contrefaçons, mais les faussaires ont l'avantage

Deux ans après la naissance des deepfakes, l'industrie technologique et le monde universitaire s'emploient à mettre au point des solutions pour automatiser la détection des contenus multimédia contrefaits (vidéos, images et enregistrements vocaux) grâce à l'intelligence artificielle. La raison de ces efforts est aussi simple qu'inquiétante : les algorithmes de détection des immissions profondes sont toujours en retard sur la technologie utilisée pour les générer. Il n'y a pas un mois, Facebook a annoncé qu'il investirait pas moins de 10 millions de dollars dans la création d'un ensemble de données pour la collecte de deepfakes et dans l'organisation d'un concours pour promouvoir le développement de technologies pour la détection des deepfakes. Microsoft est un autre des géants de la Silicon Valley qui apparaît comme un collaborateur dans ce projet. Google a également annoncé la semaine dernière la création d'un jeu de données de deepfakes visuels, développé en collaboration avec Jigsaw
Оглавление

Deux ans après la naissance des deepfakes, l'industrie technologique et le monde universitaire s'emploient à mettre au point des solutions pour automatiser la détection des contenus multimédia contrefaits (vidéos, images et enregistrements vocaux) grâce à l'intelligence artificielle.

La raison de ces efforts est aussi simple qu'inquiétante : les algorithmes de détection des immissions profondes sont toujours en retard sur la technologie utilisée pour les générer.

Il n'y a pas un mois, Facebook a annoncé qu'il investirait pas moins de 10 millions de dollars dans la création d'un ensemble de données pour la collecte de deepfakes et dans l'organisation d'un concours pour promouvoir le développement de technologies pour la détection des deepfakes. Microsoft est un autre des géants de la Silicon Valley qui apparaît comme un collaborateur dans ce projet.

Google a également annoncé la semaine dernière la création d'un jeu de données de deepfakes visuels, développé en collaboration avec Jigsaw, à partir de l'enregistrement de centaines de vidéos mettant en scène des acteurs.

Toutes ces vidéos, originales et manipulées, ont été incorporées dans l'ensemble de données, maintenant disponible pour la communauté des chercheurs. Et ils avertissent qu'ils incorporeront de nouveaux deepfakes en utilisant les nouvelles méthodes qui sont en cours de développement.

https://i.pinimg.com/564x/80/72/b7/8072b722b4265ae2a2e4e5b2b4b7df4b.jpg
https://i.pinimg.com/564x/80/72/b7/8072b722b4265ae2a2e4e5b2b4b7df4b.jpg

Aucune technologie ne sera notre " solution miracle "

Siwey Lyu, chercheur à l'Université d'Albany et l'un des plus grands experts mondiaux de la détection de la contrefaçon profonde, a encouragé la création d'un autre ensemble de données vidéo, DeepFake Forensic (DFF), avec le même objectif : intégrer de nouveaux échantillons de contrefaçons profondes représentatives des technologies les plus avancées à tout instant.

Lyu, qui a participé il y a quelques jours à un sous-comité de la Chambre des représentants des États-Unis qui a étudié l'usurpation d'identité et la désinformation sur Internet, a ensuite expliqué que

"Il est important de disposer de technologies efficaces pour identifier, contenir et bloquer les contrefaçons profondes avant qu'elles ne puissent causer des dommages. Pour ce faire, nous devrions nous concentrer sur l'amélioration de nos capacités médico-légales et rendre plus difficile la formation de faux générateurs grâce à l'utilisation de vidéos en ligne. En raison de la nature complexe des contrefaçons profondes, aucune méthode ou technologie particulière ne sera une " solution miracle ".

Il mise sur la combinaison de méthodes de détection médico-légales : recherche de traces du processus de synthèse (visages déformés pour s'adapter à l'anatomie de la cible) ou d'incohérences physiologiques (comme l'absence de clignement réaliste), en plus de parier sur " l'AI pour chasser l'AI ", en faisant appel aux réseaux neuronaux pour apprendre à détecter les modèles caractéristiques des fissures profondes.

Mais comment Lyu propose-t-elle d'empêcher l'utilisation d'images et de vidéos pour former de nouvelles IAs pour générer des deepfakes ? Introduire un "bruit antagoniste" invisible à l'œil humain mais capable de boycotter l'utilisation des algorithmes de détection faciale, obligeant le falsificateur à sélectionner manuellement des milliers de points de la vidéo.

https://i.pinimg.com/564x/a8/e3/dc/a8e3dc5a0880b8f1e7322bc4a4ba74fb.jpg
https://i.pinimg.com/564x/a8/e3/dc/a8e3dc5a0880b8f1e7322bc4a4ba74fb.jpg

Un pas en avant et deux pas en arrière ?

Dessa, une société d'intelligence artificielle, a lancé un logiciel open source destiné à la détection de deepfakes audio, un outil qui aurait été apprécié par les PDG qui ont été remplacés il y a quelques mois par des appels téléphoniques mobiles.

Ragavan Thurairatnam, co-fondateur de Dessa, pense qu'il sera "inévitable que les acteurs malveillants se déplacent beaucoup plus vite que ceux qui veulent les arrêter", mais il espère aussi que son détecteur gratuit sera un "point de départ" pour faire progresser la détection des deepfakes.

Et pourtant, ce mouvement pourrait être "l'un de chaux et l'autre de sable" : Thurairatnam lui-même reconnaît que les systèmes d'IA générative peuvent être formés dans le but de tromper un détecteur spécifique, bien qu'il soit convaincu que son potentiel à aider à créer de nouveaux et meilleurs outils de détection compense pour toute autre utilisation abusive.

Lors de sa comparution devant la Chambre des représentants, il a abondamment expliqué ce désavantage des " bons " :

"Au fur et à mesure que cette technologie continuera de se développer, les obstacles actuels à la création de deepfakes vont diminuer et la qualité des deepfakes va continuer à s'améliorer."
"Ce qui évolue aussi, c'est le jeu du chat et de la souris que toutes les relations attaquant-défenseur connaissent, et les attaquants semblent avoir un avantage : la capacité d'ajuster l'algorithme de génération chaque fois qu'une nouvelle méthode de détection est rendue publique."