Zwei Jahre nach der Geburt von deepfakes arbeiten sowohl die Technologieindustrie als auch die Wissenschaft an Lösungen zur Automatisierung der Erkennung von gefälschtem Multimedia-Material (Videos, Bilder und Sprachaufnahmen) durch den Einsatz künstlicher Intelligenz.
Der Grund für diese Bemühungen ist so einfach wie beunruhigend: Die Deepfakes-Erkennungsalgorithmen hinken der Technologie, mit der sie erzeugt werden, immer noch hinterher.
Vor nicht einmal einem Monat kündigte Facebook an, dass es nicht weniger als 10 Millionen Dollar in die Erstellung eines Datensatzes zur Sammlung von Deepfakes und in die Organisation eines Wettbewerbs zur Förderung der Entwicklung von Technologien zur Erkennung von Deepfakes investieren würde. Microsoft ist einer der Giganten des Silicon Valley, der als Kollaborateur in diesem Projekt auftritt.
Google kündigte auch letzte Woche die Erstellung eines Datensatzes von visuellen Deepfakes an, der in Zusammenarbeit mit Jigsaw aus der Aufnahme von Hunderten von Videos mit Schauspielern entwickelt wurde.
Alle diese originalen und manipulierten Videos wurden in den Datensatz aufgenommen, der nun der Forschungsgemeinschaft zur Verfügung steht. Und sie warnen davor, dass sie neue Deepfakes mit den neuen Methoden, die entwickelt werden, integrieren werden.
Keine Technologie wird unsere "Wunderwaffe" sein
Siwey Lyu, Forscher an der University of Albany und einer der weltweit führenden Experten für die Erkennung von Deepfakes, hat die Entwicklung eines weiteren Videodatensatzes, DeepFake Forensic (DFF), mit dem gleichen Ziel vorangetrieben: jederzeit neue Proben von Deepfakes zu integrieren, die für die fortschrittlichste Technologie stehen.
Lyu, der vor einigen Tagen an einem Unterausschuss des US-Repräsentantenhauses teilgenommen hat, der sich mit Nachahmung und Desinformation im Internet befasste, erklärte dann, dass
"Es ist wichtig, über effektive Technologien zu verfügen, um Deepfakes zu identifizieren, einzudämmen und zu blockieren, bevor sie Schaden anrichten können. Dies sollte geschehen, indem wir uns auf die Verbesserung unserer forensischen Fähigkeiten konzentrieren und es schwieriger machen, Fälschungsgeneratoren durch die Verwendung von Online-Videos zu schulen. Aufgrund der komplexen Natur von Deepfakes wird keine bestimmte Methode oder Technologie eine "Silberkugel" sein".
Er setzt auf die Kombination forensischer Detektionsmethoden: auf die Suche nach Spuren des Syntheseprozesses (deformierte Gesichter zur Anpassung an die Anatomie des Ziels) oder physiologischer Inkonsistenzen (z.B. das Fehlen eines realistischen Blinzelns), zusätzlich zu den Wetten auf "KI zur Jagd auf KI", wobei er auf neuronale Netze zurückgreift, um zu lernen, die charakteristischen Muster von Deepfakes zu erkennen.
Aber wie will Lyu die Verwendung von Bildern und Videos zur Schulung neuer IAs für die Generierung von Deepfakes behindern? Einführung von "antagonistischem Rauschen", das für das menschliche Auge unsichtbar ist, aber die Verwendung von Gesichtserkennungsalgorithmen boykottieren kann, was den Fälscher zwingt, Tausende von Punkten aus dem Video manuell auszuwählen.
Ein Schritt vorwärts und zwei Schritte zurück?
Dessa, ein Unternehmen für künstliche Intelligenz, hat Open-Source-Software veröffentlicht, die darauf abzielt, Audio-Tiefen zu erkennen, ein Werkzeug, das von CEOs geschätzt worden wäre, die vor einigen Monaten durch Mobiltelefone ersetzt wurden.
Ragavan Thurairatnam, Mitbegründerin von Dessa, glaubt, dass es "unvermeidlich sein wird, dass sich böswillige Akteure viel schneller bewegen werden als diejenigen, die sie aufhalten wollen", aber er vertraut auch darauf, dass sein freier Detektor ein "Ausgangspunkt" für die Weiterentwicklung der Erkennung von Deepfakes sein wird.
Und doch könnte dieser Zug "einer von Kalk und einer von Sand" sein: Thurairatnam selbst erkennt an, dass generative KI-Systeme mit dem Ziel trainiert werden können, einen bestimmten Detektor zu täuschen, obwohl er zuversichtlich ist, dass sein Potenzial zur Entwicklung neuer und besserer Erkennungswerkzeuge jeden anderen Missbrauch kompensiert.
Lyu ist jedoch anderer Meinung als diese optimistische Vorhersage: Er glaubt, dass es Gründe gibt, zu glauben, dass es auf lange Sicht schlimmer sein wird, den Code dieses Tools veröffentlicht zu haben:
"Zuerst wird der Code beiden Seiten helfen, aber er wird wahrscheinlich einen Einfluss auf die Entwicklung besserer Generatoren haben".
In seinem Auftritt vor dem Repräsentantenhaus erklärte er ausführlich diesen Nachteil der "Guten":
"Mit der Weiterentwicklung dieser Technologie werden die derzeitigen Hindernisse für die Erstellung von Deepfakes abnehmen und die Qualität der Deepfakes weiter verbessert.
"Was sich auch weiterentwickelt, ist das Katz-und-Maus-Spiel, das alle Angreifer-Verteidiger-Beziehungen erleben, und Angreifer scheinen einen Vorteil zu haben: die Fähigkeit, den Generierungsalgorithmus jedes Mal anzupassen, wenn eine neue Erkennungsmethode veröffentlicht wird.