Deepfakes: So werden Foto-, Video- und Audioinhalte manipuliert!

Autor: Tom Wannenmacher

Wir brauchen deine Hilfe – Unterstütze uns!
In einer Welt, die zunehmend von Fehlinformationen und Fake News überflutet wird, setzen wir bei Mimikama uns jeden Tag dafür ein, dir verlässliche und geprüfte Informationen zu bieten. Unser Engagement im Kampf gegen Desinformation bedeutet, dass wir ständig aufklären und informieren müssen, was natürlich auch Kosten verursacht.

Deine Unterstützung ist jetzt wichtiger denn je.
Wenn du den Wert unserer Arbeit erkennst und die Bedeutung einer gut informierten Gesellschaft für die Demokratie schätzt, bitten wir dich, über eine finanzielle Unterstützung nachzudenken.

Schon kleine Beiträge können einen großen Unterschied machen und helfen uns, unsere Unabhängigkeit zu bewahren und unsere Mission fortzusetzen.
So kannst du helfen!
PayPal: Für schnelle und einfache Online-Zahlungen.
Steady: für regelmäßige Unterstützung.

Information
Information

Geht es um Fake News und Desinformation, taucht immer wieder der Begriff Deepfakes auf. Aber was ist das eigentlich und wie kann man Deepfakes entlarven?

Was sind Deepfakes? Deepfakes sind Fotos, Videos oder Audio-Dateien, die mit Hilfe von Künstlicher Intelligenz absichtlich verändert werden. Der Begriff setzt sich aus „Deep Learning“ (eine Methode, durch die eine Künstliche Intelligenz lernt) und „Fake“ zusammen. In diesen Videos, Bildern oder Sprachdateien sieht oder hört man Personen, die Sachen tun oder sagen, die sie tatsächlich gar nie getan oder gesagt haben.

Die Manipulation von Medieninhalten ist kein neues Phänomen und wurde bereits sehr früh eingesetzt, vor allem in Zusammenhang mit politischer Propaganda. Im Unterschied zu früher wird heute jedoch auf künstliche Intelligenz und die Rechenleistung von Computern gesetzt.

Eines der ersten Videos, das viel Aufmerksamkeit erregt hat, war ein Deepfake des ehemaligen US-Präsidenten Barack Obama. In diesem Video zeigt das Online-Medium BuzzFeed, wie Deepfakes funktionieren und wieso sie gefährlich sein können:

Wie erstellt man Deepfakes?

Mittlerweile hat sich viel rund um Deepfakes getan: So wird es immer einfacher, selbst Deepfakes zu erstellen. Durch verschiedenste Apps oder durch integrierte Filter in Sozialen Netzwerken kann man sein Gesicht in bekannte Filmszenen einsetzen lassen, sich selbst oder andere altern lassen oder das Geschlecht wechseln. Das alles geht mit nur wenigen Klicks.

Ein bekanntes Beispiel dafür ist die #FaceAppChallenge. Zahlreiche InternetnutzerInnen posteten 2019 unter diesem Hashtag ein Bild von sich, auf dem sie sich mit Hilfe einer App altern ließen. Natürlich machten auch viele Promis bei der Challenge mit – so zum Beispiel auch der Rapper Drake oder die Band Jonas Brothers.

Auch Drake und die Jonas Brothers haben bei der #FaceAppChallenge mitgemacht. Collage: saferinternet.at, Bilder: Drake/Jonas Brothers/Instagram
Auch Drake und die Jonas Brothers haben bei der #FaceAppChallenge mitgemacht. Collage: saferinternet.at, Bilder: Drake/Jonas Brothers/Instagram
Solche Apps sind zwar eine lustige Spielerei, datenschutzrechtlich jedoch oft bedenklich. Auch bei der #FaceAppChallenge kam Kritik auf, dass die hochgeladenen Bilder von der App gespeichert und weiterverwendet wurden. Recherchieren Sie am Besten vor der Nutzung einer solchen App, was mit Ihren Bildern passiert.

Politische Einflussnahme durch Deepfakes

Doch nicht nur datenschutzrechtlich können Deepfakes problematisch sein: Manipulierte Videos werden auch gerne für Fake News eingesetzt. Denn Falschinformationen lassen sich ohne Bilder oder Videos als Beweis nur halb so gut verbreiten, da visuellen Medien mehr Glauben geschenkt wird. ExpertInnen sorgen sich davor, dass Deepfakes die öffentliche Meinung in Zukunft stark beeinflussen könnten.

Deepfakes zielen immer wieder auf PolitikerInnen ab: So wurde in einem Video das Gesicht der deutschen Bundeskanzlerin Angela Merkel mit dem Gesicht des damaligen US-Präsidenten Donald Trump getauscht. In den meisten Fällen – so wie auch hier – sind solche Deepfakes harmlos. Doch Deepfakes können missbraucht werden, um gezielt Stimmung gegen politische Entscheidungen, gegen Bevölkerungsgruppen oder gegen einzelne Persönlichkeiten zu machen.

Fake-Nacktbilder erstellen durch Deepfakes

Nicht zu vernachlässigen ist außerdem der Missbrauch von Deepfakes im pornografischen Bereich. Die Sensity-Studie „The State of Deepfakes“ aus dem Jahr 2020 zeigt, dass es sich bei 93 Prozent aller Deepfake Videos, die online zu finden sind, um pornografische Inhalte handelt.

Medial besonders bekannt wurde der „DeepNude Bot“ für den Messenger-Dienst Telegram. NutzerInnen müssen diesem Chatbot nur ein einziges Foto eines Opfers schicken und erhalten prompt das Foto mit der „ausgezogenen“ Person zurück. Betroffen von pornographischen Deepfakes sind fast zu 100 Prozent Frauen, wie die Sensity-Studie zeigt.

Screenshot der Webseite des DeepNude Bots. Auf der Webseite des DeepNude Bots wird damit geworben, wie viele Frauen der Bot bereits „ausgezogen“ hat.
Screenshot der Webseite des DeepNude Bots. Auf der Webseite des DeepNude Bots wird damit geworben, wie viele Frauen der Bot bereits „ausgezogen“ hat.
Damit Ihr Foto nicht für solche Zwecke missbraucht werden kann, sollten Sie Ihr eigenes Medienverhalten ständig hinterfragen. Überlegen Sie sich, welche Fotos oder Videos Sie für wen online zur Verfügung stellen wollen.

Wie erkennt man Deepfakes?

Derzeit sind viele Deepfake-Videos noch mit dem bloßen Auge erkennbar. Es gibt dabei typische Merkmale, an denen Sie Deepfakes erkennen können:

  • Unnatürliches Gesicht: Eine unnatürliche Mimik oder ein leerer Blick können ein Hinweis darauf sein, dass es sich um ein Fake handelt. Auch unlogische Schatten im Gesicht oder komisch aussehende Haare können entlarvend sein.
  • Unscharfe Übergänge: Achten Sie auf Übergänge wie jenem zwischen Gesicht und Haaren oder Gesicht und Hals. Diese Übergänge sind bei Deepfakes oftmals unscharf.
  • Fehlendes Blinzeln: Menschen blinzeln ganz automatisch, ohne sich dessen bewusst zu sein und zwar alle paar Sekunden. Blinzeln Personen in einem Video nicht, ist das ein Alarmsignal!
  • Unterschiedliche Qualität: Hat das Gesicht eine andere Qualität als das restliche Video oder Bild, handelt es sich wohl um ein Deepfake.
  • Unlogischer Hintergrund: Sehen Sie sich den Hintergrund sowie den Übergang von Gesicht zum Hintergrund an, oftmals zeigen sich erst beim genaureen Anschauen Fehler!
  • Tools verwenden: Außerdem arbeiten unterschiedliche Unternehmen sowie Universitäten bereits an Tools, um Deepfakes zu erkennen. So gibt es zum Beispiel den Deepware Scanner, den DeepFake-o-meter oder die Deepfake Detection von DuckDuckGoose.

Doch Deepfakes werden immer besser und so wird es gleichzeitig schwieriger diese zu erkennen. Wie bei anderen Informationen aus dem Internet auch, sollten Sie den Kontext überprüfen:

  • Unseriöse Quelle: Wo sind Sie auf das Video oder auf das Bild gestoßen? Ist die Quelle vertrauenswürdig oder eher dubios?
  • Umgekehrte Suche: Auf TinEye.com oder berify.com können Sie Videos sowie Bilder hochladen, um im Internet danach zu suchen und so ihre Echtheit zu überprüfen.
  • Skeptisch sein: Wenn die Aussagen oder das Verhalten der gezeigten Person sehr ungewöhnlich für die Person sind, können Sie ruhig skeptisch sein!

Vielen Dank an Saferinternet.at für dieses Thema und Inhalt.
Unterstützen 🤍

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

Mit Deiner Unterstützung via PayPal, Banküberweisung, Steady oder Patreon ermöglichst Du es uns, Falschmeldungen zu entlarven und klare Fakten zu präsentieren. Jeder Beitrag, groß oder klein, macht einen Unterschied. Vielen Dank für Deine Hilfe! ❤️

Mimikama-Webshop

Unser Ziel bei Mimikama ist einfach: Wir kämpfen mit Humor und Scharfsinn gegen Desinformation und Verschwörungstheorien.

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstanden durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Kämpfe mit uns für ein echtes, faktenbasiertes Internet! Besorgt über Falschmeldungen? Unterstütze Mimikama und hilf uns, Qualität und Vertrauen im digitalen Raum zu fördern. Dein Beitrag, egal in welcher Höhe, hilft uns, weiterhin für eine wahrheitsgetreue Online-Welt zu arbeiten. Unterstütze jetzt und mach einen echten Unterschied! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.