Informatiker tricksen Deepfake-Erkennung aus

Autor: Kathrin Helmreich

Deepfake-Erkennung austricksen? Informatiker haben es geschafft. - Artikelbild: Shutterstock / Von metamorworks
Deepfake-Erkennung austricksen? Informatiker haben es geschafft. - Artikelbild: Shutterstock / Von metamorworks

Gezielte Bildtransformation hält laut neuer UCSD-Untersuchung auch Kompression aus

Deepfake-Detektoren, die manipulierte Videos erkennen sollen, lassen sich durch passende Veränderungen von Video-Frames gut austricksen. Dies haben Informatiker der University of California, San Diego (UCSD) in einer Studie erstmals nachgewiesen. Das gilt demnach auch, wenn ein Angreifer die Funktionsweise der Erkennungssoftware nur grob kennt. Der Ansatz der Informatiker funktioniert zudem selbst dann, wenn Videos komprimiert und dekomprimiert werden.

Gezielte Bildtransformationen

Deepfakes sind mithilfe von KI gefälschte Videos. Gängig ist besonders, Gesichter in Situationen zu zeigen, die so nie stattgefunden haben, wie in gefälschten Pornos. Solche Videos taugen als Propaganda-Waffen. Deshalb gibt es auch maschinenlernende KI-Systeme, die der Erkennung solcher Deepfakes dienen. Doch die Detektoren lassen sich der UCSD-Studie zufolge gut austricksen.

„Wir zeigen, dass es möglich ist, robuste adversarielle Deepfakes zu erstellen, selbst wenn ein Angreifer die innere Funktionsweise des vom Detektor verwendeten maschinellen Lernmodells nicht kennt“,

sagt der Computertechnik-Doktorand Shehzeen Hussain.

Deepfake-Detektoren konzentrieren sich meist auf die Gesichter in Videos. Denn eben da enthalten die Fälschungen oft Fehler. Beispielsweise ist das Augenzwinkern meist nicht realistisch. Der Ansatz, Erkennungssysteme auszutricksen, besteht nun im Prinzip darin, diese durch passende Veränderungen der Video-Frames dazu zu verleiten, Bilder fälschlich doch als echt einzustufen.

Dazu versucht der Angriffs-Algorithmus zunächst mittels Test-Frames einzuschätzen, wie ein Detektor auf verschiedene, mit freiem Auge unbemerkbare Bildtransformationen reagiert und was er als echt einstuft. Dann verändert er alle Gesichter in einem Deepfake so, dass die Transformation wohl fälschlich als echt eingestuft wird.

Erschreckend effektive Arbeit

Wenn genaue Details dazu bekannt sind, wie eine Deepfake-Erkennung funktioniert, kann diese Form des Angriffs Tests zufolge über 99 Prozent der unkomprimierten Deepfakes als echt verkaufen. Selbst wenn die Funktionsweise nur in groben Zügen bekannt ist, sind es noch über fünf Sechstel.

Zudem nutzt der Algorithmus Transformationen, die im Gegensatz zu einfacheren Angriffen auch eine Kompression meist gut überstehen. Ist genau bekannt, wie ein Detektor funktioniert, können ihn daher auch knapp 85 Prozent der komprimierten Deepfakes täuschen, im Fall einer nur grob bekannten Funktionsweise sind es immerhin noch über drei Viertel.

Da sich aktuelle Deepfake-Detektoren derart gut täuschen lassen, raten die UCSD-Informatiker dazu, solche Systeme entsprechend zu testen und zu entwickeln. Sinnvoll wäre demnach, eine Erkennungs-KI in der Trainingsphase gegen einen KI-Gegner wie ihren Algorithmus antreten zu lassen. Dadurch würde der Detektor letztlich lernen, immer bessere Deepfakes mit immer clevereren Bildtransformationen als Fälschungen zu erkennen.

[mk_ad]

Das könnte auch interessieren: Social Web: Vier von zehn Usern teilen Deepfakes

Quelle: pressetext
Artikelbild: Shutterstock / Von metamorworks
Unterstützen 🤍

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

Mit Deiner Unterstützung via PayPal, Banküberweisung, Steady oder Patreon ermöglichst Du es uns, Falschmeldungen zu entlarven und klare Fakten zu präsentieren. Jeder Beitrag, groß oder klein, macht einen Unterschied. Vielen Dank für Deine Hilfe! ❤️

Mimikama-Webshop

Unser Ziel bei Mimikama ist einfach: Wir kämpfen mit Humor und Scharfsinn gegen Desinformation und Verschwörungstheorien.

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstanden durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Kämpfe mit uns für ein echtes, faktenbasiertes Internet! Besorgt über Falschmeldungen? Unterstütze Mimikama und hilf uns, Qualität und Vertrauen im digitalen Raum zu fördern. Dein Beitrag, egal in welcher Höhe, hilft uns, weiterhin für eine wahrheitsgetreue Online-Welt zu arbeiten. Unterstütze jetzt und mach einen echten Unterschied! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.