„Deepfake-O-Meter“ erkennt gefälschte Porträts

Claudia Spiess, 16. März 2021
"Deepfake-O-Meter" erkennt gefälschte Porträts
Artikelbild: www.thispersondoesnotexist.com und University at Buffalo

Informatiker der University of Buffalo entwickelten ein Tool, das gefälschte Porträts entlarvt.

Spannend, wie eine Software aufdeckt, was mittels einer anderen Software gefälscht wurde – hier geht es um Porträts oder auch „Deepfakes“. Laut Forschern der University of Buffalo ist dies anhand der Reflektionen in den Augen erkennbar, wie die von ihnen entwickelte Software nun auch beweist.

Das Gesehene spiegelt sich in beiden Augen nahezu identisch wider – zumindest was Farbe und Form angeht. Diese Tatsache nutzen Informatiker der University of Buffalo, um eine automatische Erkennung von gefälschten Porträts zu entwickeln. Bei diesen sind die Bilder in den beiden Augen im Allgemeinen unterschiedlich. Das Tool erwies sich in 94 Prozent aller Tests als zuverlässig.

Unterschiedliche Muster

„Die Hornhaut ist eine fast perfekte Halbkugel und ein guter Reflektor. In beiden Augen sollten sehr ähnliche Reflexionsmuster auftreten, weil sie dasselbe sehen. Das bemerken wir meist nicht, wenn wir ein Porträt anschauen“, so Siwei Lyu, Professor am Institut für Informatik und Ingenieurwesen.

Die nun entworfene Bildauswerte-Software bemerke Unterschiede jedoch sehr wohl.

Die Augen auf den meisten Fake-Bildern, die mithilfe von Künstlicher Intelligenz erzeugt werden, weisen unterschiedliche Muster aus – ein sicheres Zeichen dafür, dass sie gefälscht sind. Das passiert laut Lyu beispielsweise, wenn ein Porträt aus mehreren Fotos zusammengesetzt wird. „Deepfake-O-Meter“ nennt er seine Software.

Screenshot (c) University of Buffalo und www.thispersondoesnotexist.com
Screenshot (c) University of Buffalo und www.thispersondoesnotexist.com

Beim Vergleich der Reflektionen in den Augen fallen bei gefälschten Porträts Unregelmäßigkeiten auf, die alleine beim Betrachten des Fotos niemand bemerken würde.

Screenshot Vergleich reales und gefälschtes Porträt (c) Lyu et. al
Screenshot Vergleich reales und gefälschtes Porträt (c) Lyu et. al

Auch Videos funktionieren

Bei seinen Experimenten hat das Team mit echten Bildern von Flickr Faces-HQ und gefälschten Bildern von http://thispersondoesnotexist.com experimentiert, die zwar lebensecht aussehende Gesichter zeigen, aber mit Unterstützung von Künstlicher Intelligenz erschaffen wurden. Die Software analysiert die Bilder in den Augen mit hoher Präzision und vergleicht eventuelle Unterschiede der Formen und Farben der Reflektionen.

Die Analyse funktioniert auch bei Videos, jedenfalls dann, wenn sie einen ungehinderten Blick auf die Augen zulassen. Hier ist es laut Lyu besonders wichtig, Fälschungen zu entlarven. So würden Politiker mit Fake-Videos, in denen sie extreme Ansichten äußern, diskreditiert.

„Leider werden zahlreiche gefälschte Videos für pornografische Zwecke erstellt und das fügt den Opfern schwere psychische Schäden zu“, weiß Lyu.

Dass durch KI erstellte Porträts in einer frei zugänglichen Datenbank eine riesige Quelle für Fakeprofile bedeutet, haben wir in einem Artikel über diese bereits zu denken gegeben.

[mk_ad]

Passend dazu

Quellen: Pressetext.com, University of Buffalo, Press-News, TheNextWeb


Hinweis: Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.

  • Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum. Ein unabhängiges und für jeden frei zugängliches Informationsmedium ist in Zeiten von Fake News, aber auch Message Control besonders wichtig. Wir sind seit 2011 bestrebt, allen Internetnutzern stets hochwertige Faktenchecks zu bieten.  Dies soll es auch langfristig bleiben. Dafür brauchen wir jetzt deine Unterstützung!

Mehr von Mimikama