Facebooks Reverse-Engineering-Techniken auf Deepfake

Facebook entwickelt eine neue Methode, um Deepfake rückgängig zu machen und ihren Ursprung zu verfolgen. Diese Arbeit kann die zukünftige Deepfake-Forschung unterstützen.

Deepfake ist derzeit kein Problem für Facebook, aber das Unternehmen finanziert eine Studie über die Technologie, um kommenden Bedrohungen vorzubeugen.

Zuletzt hat sich das Unternehmen mit Wissenschaftlern der Michigan State University (MSU) zusammengetan, um Deepfake zurückzuentwickeln: Die Analyse der KI-generierten Bilder, um die erkannten Merkmale des maschinellen Lernmodells zu entdecken. Sehr nützlich, weil es Facebook helfen kann, Deepfake-Angreifer in verschiedenen sozialen Netzwerken zu verfolgen.

Ohne die Zustimmung des Nutzers kann dieses Motiv Fehlinformationen und Pornografie enthalten – eine gegenseitige Nutzung von frustrierenden Deepfake-Techniken. Sie ist noch nicht einsatzbereit. Diese Methode kann Deep Forgery durch das Netzwerk unterstützen und darauf schließen, welche bekannten KI-Modelle Deep Forgeries produziert haben. Die Arbeit von Vishal Asnani von der Moskauer Staatsuniversität zielt jedoch darauf ab, weniger bekannte Architekturmerkmale weiterzuentwickeln.

Diese Eigenschaften, Hyperparameter genannt, müssen bei jedem maschinellen Lernen angepasst werden. Das Modell wird als Teil der Engine verwendet. Zusammen hinterlassen sie einen unverwechselbaren Fingerabdruck auf dem gesamten Bild, der dann zur Bestimmung der Herkunft verwendet werden kann.

Neue forensische Methoden

Hassner verglich diese Arbeit mit forensischen Methoden, um anhand von Mustern in den auftauchenden Bildern festzustellen, mit welchem Kameramodell die Fotos gemacht wurden. Allerdings kann nicht jeder seine Kamera erstellen, sagte er. Allerdings kann jeder, der über genügend Erfahrung und einen handelsüblichen Computer verfügt, seine Modelle erstellen, um tiefe Fälschungen zu erzeugen.

READ:  Google entwickelt Augmented Reality OS für ein AR-Gerät

Der Stemming-Algorithmus kann die Merkmale des generierten Modells markieren und feststellen, welches bekannte Modell das Bild erstellt hat. Das ist die erste tiefe Fälschung. Wir haben die besten Ergebnisse durch Standardtests erhalten, so Hassner. Herausforderung Aber es ist wichtig zu wissen, dass selbst diese Spitzenergebnisse bei weitem nicht glaubwürdig sind.

Ungelöstes Problem

Als Facebook im vergangenen Jahr einen Wettbewerb zur Erkennung von Deepfakes veranstaltete, konnte der siegreiche Algorithmus KI-Videos nur in 65,18 % der Fälle erkennen. Wissenschaftler sagen, dass der Einsatz von Algorithmen zur Erkennung von Deepfakes immer noch eine ungelöste Schwierigkeit ist. Einer der Gründe dafür ist, dass der Bereich der produktiven künstlichen Intelligenz sehr aktiv ist. Jeden Tag kommen neue Methoden auf den Markt, was fast für jeden Filter gilt. Das ist unmöglich.

Experten sind sich dieser Dynamik bewusst.

Auf die Frage, ob die Veröffentlichung dieses neuen Fingerabdruck-Algorithmus zu Untersuchungen führen wird, bei denen diese Technologien übersehen werden könnten, stimmte Hasner zu – es sei immer noch ein Katz- und Mausspiel.