Von lustig bis kriminell – Wie Deepfakes unsere Medienkompetenz herausfordern

Seit über vier Jahren bereits finden Deepfakes Anwendung in verschiedensten Bereichen, von lustig über „pornös“ bis kriminell – und es wird immer schwieriger, diese zu erkennen.

Autor: Ralf Nowotny

Wir brauchen deine Hilfe – Unterstütze uns!
In einer Welt, die zunehmend von Fehlinformationen und Fake News überflutet wird, setzen wir bei Mimikama uns jeden Tag dafür ein, dir verlässliche und geprüfte Informationen zu bieten. Unser Engagement im Kampf gegen Desinformation bedeutet, dass wir ständig aufklären und informieren müssen, was natürlich auch Kosten verursacht.

Deine Unterstützung ist jetzt wichtiger denn je.
Wenn du den Wert unserer Arbeit erkennst und die Bedeutung einer gut informierten Gesellschaft für die Demokratie schätzt, bitten wir dich, über eine finanzielle Unterstützung nachzudenken.

Schon kleine Beiträge können einen großen Unterschied machen und helfen uns, unsere Unabhängigkeit zu bewahren und unsere Mission fortzusetzen.
So kannst du helfen!
PayPal: Für schnelle und einfache Online-Zahlungen.
Steady: für regelmäßige Unterstützung.

Vor einigen Tagen erst huschte der Begriff „Deepfake“ durch die Presse: Die SPD-Politikerin Franziska Giffey und Wiens SPÖ Bürgermeister Michael Ludwig sind auf einen falschen Vitali Klitschko hereingefallen, mit dem sie per Videokonferenz sprachen. Um einen echten Deepfake schien es sich zwar nicht zu handeln, sondern um einen geschickten Zusammenschnitt von Interview-Ausschnitten, die live eingespielt wurden, wie der Investigativjournalist Daniel Laufer in einem Twitter-Thread erklärt, doch ist es nur eine Frage der Zeit, bis Echtzeit-Deepfakes nahezu perfekt sind.

Deepfakes – Der Anfang

Im Jahr 2018 gerieten Deepfakes erstmals deutlicher ins Licht der Öffentlichkeit, als eine Desktop-Anwendung namens „FakeApp“ es ermöglichte, täuschend echt aussehende, gefälschte Videos mit den Gesichtern anderer Menschen zu erzeugen – was dann (natürlich) von vielen Anwendern dazu genutzt wurde, vermeintliche Pornos mit Prominenten zu produzieren, die aber mehr schlecht als recht waren.

Deepfake-Pornos mit Prominenten 2018
Deepfake-Pornos mit Prominenten 2018

2019 setzte sich der Nackt-Trend mit Deepfakes fort, als eine Software namens „Deepnude“ es ermöglichte, aus normalen Fotografien von Personen Nacktbilder zu erzeugen, was dann natürlich auch kriminell genutzt wurde – plötzlich waren Erpressungen mit vermeintlichen Nacktbildern ein echtes Problem – fast zumindest, denn sehr überzeugend waren diese Deepfakes auch nicht, die Entwickler nahmen die Software dann auch selbst wieder vom Netz.

Deepfakes werden realistischer

Doch im selben Jahr bewiesen die Videos der Künstler Bill Posters und Daniel Howe zusammen mit der Werbeagentur Canny, dass Deepfakes sehr realistisch wirken können. Bei der Kunstausstellung „Spectre“ zeigten sie unter anderem Mark Zuckerberg, der sich anscheinend bei „Spectre“ bedankt: „Spectre zeigte mir: Wer immer auch die Daten kontrolliert, kontrolliert auch die Zukunft.

Aber nicht nur Videos, sondern auch Stimmen konnten bereits 2019 sehr gut imitiert werden, wie dieses vermeintliche Tondokument von Donald Trump zeigt: Die kleine Rede wurde komplett mit dem Computer erstellt!

Und diese Entwicklung geht weiter: Amazons Sprachassistent Alexa soll ebenfalls bald Stimmen nachmachen können.

Spaß mit Deepfakes

Eine interessante Frage unter Filmfans: Wie würden Filme eigentlich wirken, wenn sie mit den Schauspielern besetzt worden wären, die ursprünglich für die Rollen vorgesehen waren? Dies wurde 2020 mit mehreren Deepfakes beantwortet. Beispielsweise lehnte Will Smith die Rolle des Neo in „Matrix“ ab, um „Wild Wild West“ (ein ziemlicher Flop an der Kinokasse) zu drehen. So würde Matrix sonst aussehen:

Tom Sellek wäre sollte auch eigentlich die Hauptrolle in „Indiana Jones“ spielen, doch die Produktionsfirma der TV-Serie „Magnum“ ließ dies nicht zu. Fast schade, denn Hut und Peitsche stehen ihm ziemlich gut!

Aber auch andere Tricksereien sind amüsant:
In der originalen Star Wars-Trilogie spielte Alec Guiness den Obi-Wan Kenobi, in Episode 1 – 3 und in der aktuellen Serie wurde der junge Obi-Wan dann von Ewan McGregor verkörpert. Wie sieht es wohl aus, wenn McGregor damals schon alt genug gewesen wäre, den Jedi-Meister zu spielen?

2021 eroberten schließlich Apps wie „Wombo“ den Markt: Mit der App kann jeder eigene oder fremde Fotos zu bekannten Liedern singen lassen. So schön hat man Nordkoreas Machthaber Kim Jong-un bestimmt noch nie singen gehört!

Dem YouTuber „Shamook“ verholfen seine Deepfakes sogar zu einem lukrativen Job: Seine Version des Finales der zweiten Staffel von „The Mandalorian“ war so überzeugend, dass die Disney-Tochter Lucasfilm ihn nicht etwa mit Copyright-Beschwerden überzog, sondern ihm einen Vertrag anbot:

Eine Herausforderung an die Medienkompetenz

So beeindruckend die obigen Deepfakes auch sind: Sie sind aber auch von echten Profis gemacht worden. Heutzutage ist es für Laien nur sehr schwer möglich, überzeugende Deepfakes zu erstellen. Die Tech-Journalistin und Buchautorin Svea Eckert probierte es aus – und ist nach eigenen Angaben kläglich gescheitert.

Auch sehr gute Deepfakes lassen sich bei genauerem Betrachten als Fälschungen entlarven: Bestimmte Gesichtspartien bleiben starr, es wird entweder gar nicht oder sehr unecht gezwinkert, die Mundpartie wirkt beim Sprechen manchmal „verwaschen“, der Hintergrund wird bei Kopfbewegungen verzerrt… solche kleinen Fehler müssen selbst bei professionellen Deepfakes immer mühsam mit der Hand nachbearbeitet werden.

Aber solche Fehler werden auch gerne übersehen, gerade wenn man sich ein Video nur auf einem kleinen Smartphone-Display anschaut, während es an einem PC schon einfacher ist, ein Video auf Zeitlupe laufen zu lassen und genauer auf die Details zu achten. Deswegen sollte ebenfalls auch darauf geachtet werden, aus welchen Quellen ein Video stammt!

Im Laufe weniger Jahre machte die Deepfake-Technologie riesige Fortschritte. Sie kann zum Spaß eingesetzt werden oder um ältere Schauspieler in Serien jung erscheinen zu lassen… aber eben auch, um Politikern falsche Worte in den Mund zu legen – derzeit noch relativ einfach durchschaubar, doch dies kann sich schnell ändern.

Was ist, wenn solche Deepfakes irgendwann einmal Konflikte auslösen? Wenn ein scheinbar heimlich aufgenommenes Gespräch eines Politikers, der die Führer eines anderen Landes beleidigt, zu einer internationalen Krise führt? Wie kann dann schnell bewiesen werden, dass es sich um einen Deepfake handelt, wenn die Technik immer perfekter wird?

Dies sind Fragen, denen wir uns in der Zukunft stellen müssen. Denn leider ist es so, dass jegliche Technik, die entwickelt wurde, meist auch dazu genutzt werden kann, um Zwietracht zu säen und anderen zu schaden.

Artikelbild: Unsplash

Unterstützen 🤍

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

Mit Deiner Unterstützung via PayPal, Banküberweisung, Steady oder Patreon ermöglichst Du es uns, Falschmeldungen zu entlarven und klare Fakten zu präsentieren. Jeder Beitrag, groß oder klein, macht einen Unterschied. Vielen Dank für Deine Hilfe! ❤️

Mimikama-Webshop

Unser Ziel bei Mimikama ist einfach: Wir kämpfen mit Humor und Scharfsinn gegen Desinformation und Verschwörungstheorien.

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstanden durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Kämpfe mit uns für ein echtes, faktenbasiertes Internet! Besorgt über Falschmeldungen? Unterstütze Mimikama und hilf uns, Qualität und Vertrauen im digitalen Raum zu fördern. Dein Beitrag, egal in welcher Höhe, hilft uns, weiterhin für eine wahrheitsgetreue Online-Welt zu arbeiten. Unterstütze jetzt und mach einen echten Unterschied! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.