Aktuelles

Von lustig bis kriminell – Wie Deepfakes unsere Medienkompetenz herausfordern

Seit über vier Jahren bereits finden Deepfakes Anwendung in verschiedensten Bereichen, von lustig über „pornös“ bis kriminell – und es wird immer schwieriger, diese zu erkennen.

Ralf Nowotny, 27. Juni 2022

Vor einigen Tagen erst huschte der Begriff „Deepfake“ durch die Presse: Die SPD-Politikerin Franziska Giffey und Wiens SPÖ Bürgermeister Michael Ludwig sind auf einen falschen Vitali Klitschko hereingefallen, mit dem sie per Videokonferenz sprachen. Um einen echten Deepfake schien es sich zwar nicht zu handeln, sondern um einen geschickten Zusammenschnitt von Interview-Ausschnitten, die live eingespielt wurden, wie der Investigativjournalist Daniel Laufer in einem Twitter-Thread erklärt, doch ist es nur eine Frage der Zeit, bis Echtzeit-Deepfakes nahezu perfekt sind.

Deepfakes – Der Anfang

Im Jahr 2018 gerieten Deepfakes erstmals deutlicher ins Licht der Öffentlichkeit, als eine Desktop-Anwendung namens „FakeApp“ es ermöglichte, täuschend echt aussehende, gefälschte Videos mit den Gesichtern anderer Menschen zu erzeugen – was dann (natürlich) von vielen Anwendern dazu genutzt wurde, vermeintliche Pornos mit Prominenten zu produzieren, die aber mehr schlecht als recht waren.

Deepfake-Pornos mit Prominenten 2018
Deepfake-Pornos mit Prominenten 2018

2019 setzte sich der Nackt-Trend mit Deepfakes fort, als eine Software namens „Deepnude“ es ermöglichte, aus normalen Fotografien von Personen Nacktbilder zu erzeugen, was dann natürlich auch kriminell genutzt wurde – plötzlich waren Erpressungen mit vermeintlichen Nacktbildern ein echtes Problem – fast zumindest, denn sehr überzeugend waren diese Deepfakes auch nicht, die Entwickler nahmen die Software dann auch selbst wieder vom Netz.

Deepfakes werden realistischer

Doch im selben Jahr bewiesen die Videos der Künstler Bill Posters und Daniel Howe zusammen mit der Werbeagentur Canny, dass Deepfakes sehr realistisch wirken können. Bei der Kunstausstellung „Spectre“ zeigten sie unter anderem Mark Zuckerberg, der sich anscheinend bei „Spectre“ bedankt: „Spectre zeigte mir: Wer immer auch die Daten kontrolliert, kontrolliert auch die Zukunft.

Aber nicht nur Videos, sondern auch Stimmen konnten bereits 2019 sehr gut imitiert werden, wie dieses vermeintliche Tondokument von Donald Trump zeigt: Die kleine Rede wurde komplett mit dem Computer erstellt!

Und diese Entwicklung geht weiter: Amazons Sprachassistent Alexa soll ebenfalls bald Stimmen nachmachen können.

Spaß mit Deepfakes

Eine interessante Frage unter Filmfans: Wie würden Filme eigentlich wirken, wenn sie mit den Schauspielern besetzt worden wären, die ursprünglich für die Rollen vorgesehen waren? Dies wurde 2020 mit mehreren Deepfakes beantwortet. Beispielsweise lehnte Will Smith die Rolle des Neo in „Matrix“ ab, um „Wild Wild West“ (ein ziemlicher Flop an der Kinokasse) zu drehen. So würde Matrix sonst aussehen:

Tom Sellek wäre sollte auch eigentlich die Hauptrolle in „Indiana Jones“ spielen, doch die Produktionsfirma der TV-Serie „Magnum“ ließ dies nicht zu. Fast schade, denn Hut und Peitsche stehen ihm ziemlich gut!

Aber auch andere Tricksereien sind amüsant:
In der originalen Star Wars-Trilogie spielte Alec Guiness den Obi-Wan Kenobi, in Episode 1 – 3 und in der aktuellen Serie wurde der junge Obi-Wan dann von Ewan McGregor verkörpert. Wie sieht es wohl aus, wenn McGregor damals schon alt genug gewesen wäre, den Jedi-Meister zu spielen?

2021 eroberten schließlich Apps wie „Wombo“ den Markt: Mit der App kann jeder eigene oder fremde Fotos zu bekannten Liedern singen lassen. So schön hat man Nordkoreas Machthaber Kim Jong-un bestimmt noch nie singen gehört!

Twitter

Mit dem Laden des Tweets akzeptieren Sie die Datenschutzerklärung von Twitter.
Mehr erfahren

Inhalt laden

Dem YouTuber „Shamook“ verholfen seine Deepfakes sogar zu einem lukrativen Job: Seine Version des Finales der zweiten Staffel von „The Mandalorian“ war so überzeugend, dass die Disney-Tochter Lucasfilm ihn nicht etwa mit Copyright-Beschwerden überzog, sondern ihm einen Vertrag anbot:

Eine Herausforderung an die Medienkompetenz

So beeindruckend die obigen Deepfakes auch sind: Sie sind aber auch von echten Profis gemacht worden. Heutzutage ist es für Laien nur sehr schwer möglich, überzeugende Deepfakes zu erstellen. Die Tech-Journalistin und Buchautorin Svea Eckert probierte es aus – und ist nach eigenen Angaben kläglich gescheitert.

Auch sehr gute Deepfakes lassen sich bei genauerem Betrachten als Fälschungen entlarven: Bestimmte Gesichtspartien bleiben starr, es wird entweder gar nicht oder sehr unecht gezwinkert, die Mundpartie wirkt beim Sprechen manchmal „verwaschen“, der Hintergrund wird bei Kopfbewegungen verzerrt… solche kleinen Fehler müssen selbst bei professionellen Deepfakes immer mühsam mit der Hand nachbearbeitet werden.

Aber solche Fehler werden auch gerne übersehen, gerade wenn man sich ein Video nur auf einem kleinen Smartphone-Display anschaut, während es an einem PC schon einfacher ist, ein Video auf Zeitlupe laufen zu lassen und genauer auf die Details zu achten. Deswegen sollte ebenfalls auch darauf geachtet werden, aus welchen Quellen ein Video stammt!

Im Laufe weniger Jahre machte die Deepfake-Technologie riesige Fortschritte. Sie kann zum Spaß eingesetzt werden oder um ältere Schauspieler in Serien jung erscheinen zu lassen… aber eben auch, um Politikern falsche Worte in den Mund zu legen – derzeit noch relativ einfach durchschaubar, doch dies kann sich schnell ändern.

Was ist, wenn solche Deepfakes irgendwann einmal Konflikte auslösen? Wenn ein scheinbar heimlich aufgenommenes Gespräch eines Politikers, der die Führer eines anderen Landes beleidigt, zu einer internationalen Krise führt? Wie kann dann schnell bewiesen werden, dass es sich um einen Deepfake handelt, wenn die Technik immer perfekter wird?

Dies sind Fragen, denen wir uns in der Zukunft stellen müssen. Denn leider ist es so, dass jegliche Technik, die entwickelt wurde, meist auch dazu genutzt werden kann, um Zwietracht zu säen und anderen zu schaden.

Artikelbild: Unsplash


Hinweis: Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.

  • Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum. Ein unabhängiges und für jeden frei zugängliches Informationsmedium ist in Zeiten von Fake News, aber auch Message Control besonders wichtig. Wir sind seit 2011 bestrebt, allen Internetnutzern stets hochwertige Faktenchecks zu bieten.  Dies soll es auch langfristig bleiben. Dafür brauchen wir jetzt deine Unterstützung!

weitere mimikama-Artikel