Blogheim.at Logo
Mittwoch, 1 Dezember 2021

Durch Künstliche Intelligenz wird es immer schwieriger Fake-Bilder und -Videos zu erkennen.

Deepfakes: So werden Foto-, Video- und Audioinhalte manipuliert!

Geht es um Fake News und Desinformation, taucht immer wieder der Begriff Deepfakes auf. Aber was ist das eigentlich und wie kann man Deepfakes entlarven?

Was sind Deepfakes? Deepfakes sind Fotos, Videos oder Audio-Dateien, die mit Hilfe von Künstlicher Intelligenz absichtlich verändert werden. Der Begriff setzt sich aus „Deep Learning“ (eine Methode, durch die eine Künstliche Intelligenz lernt) und „Fake“ zusammen. In diesen Videos, Bildern oder Sprachdateien sieht oder hört man Personen, die Sachen tun oder sagen, die sie tatsächlich gar nie getan oder gesagt haben.

Die Manipulation von Medieninhalten ist kein neues Phänomen und wurde bereits sehr früh eingesetzt, vor allem in Zusammenhang mit politischer Propaganda. Im Unterschied zu früher wird heute jedoch auf künstliche Intelligenz und die Rechenleistung von Computern gesetzt.

Eines der ersten Videos, das viel Aufmerksamkeit erregt hat, war ein Deepfake des ehemaligen US-Präsidenten Barack Obama. In diesem Video zeigt das Online-Medium BuzzFeed, wie Deepfakes funktionieren und wieso sie gefährlich sein können:

Wie erstellt man Deepfakes?

Mittlerweile hat sich viel rund um Deepfakes getan: So wird es immer einfacher, selbst Deepfakes zu erstellen. Durch verschiedenste Apps oder durch integrierte Filter in Sozialen Netzwerken kann man sein Gesicht in bekannte Filmszenen einsetzen lassen, sich selbst oder andere altern lassen oder das Geschlecht wechseln. Das alles geht mit nur wenigen Klicks.

Ein bekanntes Beispiel dafür ist die #FaceAppChallenge. Zahlreiche InternetnutzerInnen posteten 2019 unter diesem Hashtag ein Bild von sich, auf dem sie sich mit Hilfe einer App altern ließen. Natürlich machten auch viele Promis bei der Challenge mit – so zum Beispiel auch der Rapper Drake oder die Band Jonas Brothers.

Auch Drake und die Jonas Brothers haben bei der #FaceAppChallenge mitgemacht. Collage: saferinternet.at, Bilder: Drake/Jonas Brothers/Instagram
Auch Drake und die Jonas Brothers haben bei der #FaceAppChallenge mitgemacht. Collage: saferinternet.at, Bilder: Drake/Jonas Brothers/Instagram

Solche Apps sind zwar eine lustige Spielerei, datenschutzrechtlich jedoch oft bedenklich. Auch bei der #FaceAppChallenge kam Kritik auf, dass die hochgeladenen Bilder von der App gespeichert und weiterverwendet wurden. Recherchieren Sie am Besten vor der Nutzung einer solchen App, was mit Ihren Bildern passiert.

Politische Einflussnahme durch Deepfakes

Doch nicht nur datenschutzrechtlich können Deepfakes problematisch sein: Manipulierte Videos werden auch gerne für Fake News eingesetzt. Denn Falschinformationen lassen sich ohne Bilder oder Videos als Beweis nur halb so gut verbreiten, da visuellen Medien mehr Glauben geschenkt wird. ExpertInnen sorgen sich davor, dass Deepfakes die öffentliche Meinung in Zukunft stark beeinflussen könnten.

Deepfakes zielen immer wieder auf PolitikerInnen ab: So wurde in einem Video das Gesicht der deutschen Bundeskanzlerin Angela Merkel mit dem Gesicht des damaligen US-Präsidenten Donald Trump getauscht. In den meisten Fällen – so wie auch hier – sind solche Deepfakes harmlos. Doch Deepfakes können missbraucht werden, um gezielt Stimmung gegen politische Entscheidungen, gegen Bevölkerungsgruppen oder gegen einzelne Persönlichkeiten zu machen.

Fake-Nacktbilder erstellen durch Deepfakes

Nicht zu vernachlässigen ist außerdem der Missbrauch von Deepfakes im pornografischen Bereich. Die Sensity-Studie „The State of Deepfakes“ aus dem Jahr 2020 zeigt, dass es sich bei 93 Prozent aller Deepfake Videos, die online zu finden sind, um pornografische Inhalte handelt.

Medial besonders bekannt wurde der „DeepNude Bot“ für den Messenger-Dienst Telegram. NutzerInnen müssen diesem Chatbot nur ein einziges Foto eines Opfers schicken und erhalten prompt das Foto mit der „ausgezogenen“ Person zurück. Betroffen von pornographischen Deepfakes sind fast zu 100 Prozent Frauen, wie die Sensity-Studie zeigt.

Screenshot der Webseite des DeepNude Bots. Auf der Webseite des DeepNude Bots wird damit geworben, wie viele Frauen der Bot bereits „ausgezogen“ hat.
Screenshot der Webseite des DeepNude Bots. Auf der Webseite des DeepNude Bots wird damit geworben, wie viele Frauen der Bot bereits „ausgezogen“ hat.

Damit Ihr Foto nicht für solche Zwecke missbraucht werden kann, sollten Sie Ihr eigenes Medienverhalten ständig hinterfragen. Überlegen Sie sich, welche Fotos oder Videos Sie für wen online zur Verfügung stellen wollen.

Wie erkennt man Deepfakes?

Derzeit sind viele Deepfake-Videos noch mit dem bloßen Auge erkennbar. Es gibt dabei typische Merkmale, an denen Sie Deepfakes erkennen können:

  • Unnatürliches Gesicht: Eine unnatürliche Mimik oder ein leerer Blick können ein Hinweis darauf sein, dass es sich um ein Fake handelt. Auch unlogische Schatten im Gesicht oder komisch aussehende Haare können entlarvend sein.
  • Unscharfe Übergänge: Achten Sie auf Übergänge wie jenem zwischen Gesicht und Haaren oder Gesicht und Hals. Diese Übergänge sind bei Deepfakes oftmals unscharf.
  • Fehlendes Blinzeln: Menschen blinzeln ganz automatisch, ohne sich dessen bewusst zu sein und zwar alle paar Sekunden. Blinzeln Personen in einem Video nicht, ist das ein Alarmsignal!
  • Unterschiedliche Qualität: Hat das Gesicht eine andere Qualität als das restliche Video oder Bild, handelt es sich wohl um ein Deepfake.
  • Unlogischer Hintergrund: Sehen Sie sich den Hintergrund sowie den Übergang von Gesicht zum Hintergrund an, oftmals zeigen sich erst beim genaureen Anschauen Fehler!
  • Tools verwenden: Außerdem arbeiten unterschiedliche Unternehmen sowie Universitäten bereits an Tools, um Deepfakes zu erkennen. So gibt es zum Beispiel den Deepware Scanner, den DeepFake-o-meter oder die Deepfake Detection von DuckDuckGoose.

Doch Deepfakes werden immer besser und so wird es gleichzeitig schwieriger diese zu erkennen. Wie bei anderen Informationen aus dem Internet auch, sollten Sie den Kontext überprüfen:

  • Unseriöse Quelle: Wo sind Sie auf das Video oder auf das Bild gestoßen? Ist die Quelle vertrauenswürdig oder eher dubios?
  • Umgekehrte Suche: Auf TinEye.com oder berify.com können Sie Videos sowie Bilder hochladen, um im Internet danach zu suchen und so ihre Echtheit zu überprüfen.
  • Skeptisch sein: Wenn die Aussagen oder das Verhalten der gezeigten Person sehr ungewöhnlich für die Person sind, können Sie ruhig skeptisch sein!

Vielen Dank an Saferinternet.at für dieses Thema und Inhalt.

Unabhängige Faktenchecks und Recherchen sind wichtig und richtig. Sie fördern Medienkompetenz und Bildung. 

Ein unabhängiges und für jeden frei zugängliches Informationsmedium ist in Zeiten von Fakenews, aber auch Message Control besonders wichtig. Wir sind seit 2011 bestrebt, allen Internetnutzern stets hochwertige Faktenchecks zu bieten.  Dies soll es auch langfristig bleiben. Dafür brauchen wir jetzt Deine Unterstützung! Überhaupt jetzt, denn wir verzichten ab sofort auf lästige Werbebanner, denn wir wollen nicht länger Sklaven der Werbeindustrie sein und diesen Zustand möchten wir bewusst aufrechterhalten. Dafür gibt es einen guten Grund. Dieser Grund nennt sich: Unabhängigkeit.

Unterstützen


 

Exklusive Inhalte! Werde jetzt mimikamaPLUS- Abonnent und unterstütze so unser Handeln. Zusätzlich erhältst du exklusive Inhalte und die gesamte Webseite werbefrei.

Aktuelle Artikel

Hinweis: Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.