Deepfake: Politiker sprechen mit angeblichem Klitschko

Deepfakes als Propaganda-Waffe Deutsche SPD-Politikerin Franziska Giffey und Wiens SPÖ Bürgermeister Michael Ludwig fallen auf falschen Klitschko herein!

Autor: Tom Wannenmacher

Franziska Giffey und Michael Ludwig fallen auf falschen Klitschko rein. Die deutsche SPD-Politikerin Franziska Giffey und Wiens SPÖ Bürgermeister Michael Ludwig haben in einem Videotelefonat vermeintlich mit dem Kiewer Amtskollegen Vitali Klitschko gesprochen. Der echte Klitschko weiß davon aber nichts.

Nach einem Fake-Telefonat eines vorgeblichen Vitali Klitschko mit Berlins Regierender Bürgermeisterin Franziska Giffey (SPD) haben zwei weitere Rathäuser ähnliche Vorfälle gemeldet.

Der Spiegel schreibt:

Giffey hatte bei einer Videoschalte am Freitag Zweifel bekommen, ob sie tatsächlich wie geplant mit Kiews Bürgermeister verbunden war. Das Gespräch endete dann vorzeitig. Die Senatskanzlei geht von einer digitalen Manipulation aus: »Allem Anschein nach war es ein Deepfake«

Momentan berichten mehrere europäische Bürgermeister und Bürgermeisterinnen von Fake-Anrufen eines vermeintlichen Vitali Klitschko, Bürgermeister von Kiew. Auch die deutsche SPD-Politikerin Franziska Giffey und Wiens SPÖ Bürgermeister Michael Ludwig haben so einen Anruf erhalten – das aber zunächst nicht gemerkt.

Vitaliy Klitschko meldet sich selbst zu Wort

T3n schreibt:

Herr Klitschko hat gefragt, wie es uns mit den vielen ukrainischen Flüchtlingen geht, wie wir damit umgehen, wie die Zahlen sind, ein ganz normales Gespräch, wie wir es erwartet hatten.“ Die Videokonferenz zur Zusammenarbeit der beiden Städte sei bereits lange vorher verabredet worden.

Klitschko-Deep-Fake: Konferenz driftet ab

Doch dann driftete das Gespräch in skurrile Richtungen ab: „Es ging einmal darum, dass er sich auf ein angebliches Gespräch mit Botschafter Andrij Melnyk bezogen und gefragt hat, wie wir das sehen, dass so viele Ukrainerinnen und Ukrainer sich Sozialleistungen in Berlin erschleichen wollten“, sagte Frerichs. Außerdem gab es die Bitte, geflüchtete Männer wieder in die Ukraine auszuweisen, um zu kämpfen. Das letzte Thema sei dann jedoch sehr auffällig gewesen: „Er hat gefragt, ob wir Kiew beratend unterstützen könnten, eine Art CSD (Christopher Street Day) auszurichten. Das war angesichts des Krieges mehr als seltsam.“

Das Gespräch zwischen Giffey und dem Fake-Klitschko sei daraufhin abgebrochen worden. „Der Verlauf des Gesprächs und die Themensetzung haben in Berlin ein Misstrauen hervorgerufen“, twitterte die Senatskanzlei. Rückfragen bei dem ukrainischen Botschafter in Deutschland habe danach Klarheit gebracht, dass die Person nicht Vitali Klitschko sein konnte. „Allem Anschein nach haben wir es mit einem Deep Fake zu tun“, sagte Frerichs. Auch in Madrid hatte es kürzlich einen ähnlichen Vorfall gegeben. Bürgermeister José Luis Martinez-Almeida ist während einer Videokonferenz mit dem angeblichen Klitschko ebenfalls misstrauisch geworden.

Was sind Deepfakes? Deepfakes sind Fotos, Videos oder Audio-Dateien, die mithilfe von Künstlicher Intelligenz absichtlich verändert werden. Der Begriff setzt sich aus „Deep Learning“ (eine Methode, durch die eine Künstliche Intelligenz lernt) und „Fake“ zusammen. In diesen Videos, Bildern oder Sprachdateien sieht oder hört man Personen, die Sachen tun oder sagen, die sie tatsächlich niemals getan oder gesagt haben.

Die Manipulation von Medieninhalten ist kein neues Phänomen und wurde bereits sehr früh eingesetzt, vorwiegend in Zusammenhang mit politischer Propaganda. Im Unterschied zu früher wird heute jedoch auf künstliche Intelligenz und die Rechenleistung von Computern gesetzt.

Eines der ersten Videos, das viel Aufmerksamkeit erregt hat, war ein Deepfake des ehemaligen US-Präsidenten Barack Obama. In diesem Video zeigt das Online-Medium BuzzFeed, wie Deepfakes funktionieren und wieso sie gefährlich sein können > Weiterlesen

Wie erkennt man Deepfakes?

Derzeit sind viele Deepfake-Videos noch mit dem bloßen Auge erkennbar. Es gibt dabei typische Merkmale, an denen Sie Deepfakes erkennen können:

  • Unnatürliches Gesicht: Eine unnatürliche Mimik oder ein leerer Blick können ein Hinweis darauf sein, dass es sich um ein Fake handelt. Auch unlogische Schatten im Gesicht oder komisch aussehende Haare können entlarvend sein.
  • Unscharfe Übergänge: Achten Sie auf Übergänge wie jenem zwischen Gesicht und Haaren oder Gesicht und Hals. Diese Übergänge sind bei Deepfakes oftmals unscharf.
  • Fehlendes Blinzeln: Menschen blinzeln ganz automatisch, ohne sich dessen bewusst zu sein und zwar alle paar Sekunden. Blinzeln Personen in einem Video nicht, ist das ein Alarmsignal!
  • Unterschiedliche Qualität: Hat das Gesicht eine andere Qualität als das restliche Video oder Bild, handelt es sich wohl um ein Deepfake.
  • Unlogischer Hintergrund: Sehen Sie sich den Hintergrund sowie den Übergang von Gesicht zum Hintergrund an, oftmals zeigen sich erst beim genaueren Anschauen Fehler!
  • Tools verwenden: Außerdem arbeiten unterschiedliche Unternehmen sowie Universitäten bereits an Tools, um Deepfakes zu erkennen. So gibt es zum Beispiel den Deepware Scanner, den DeepFake-o-meter oder die Deepfake Detection von DuckDuckGoose.

Quelle:

ORF
SPIEGEL
T3N

Passend zum Thema:

Deepfake: Selenskyjs gefälschter Aufruf zur Kapitulation
Putin gibt zu, ein Terrorist zu sein – in einem Deepfake-Video

Unterstützen 🤍

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

Mit Deiner Unterstützung via PayPal, Banküberweisung, Steady oder Patreon ermöglichst Du es uns, Falschmeldungen zu entlarven und klare Fakten zu präsentieren. Jeder Beitrag, groß oder klein, macht einen Unterschied. Vielen Dank für Deine Hilfe! ❤️

Mimikama-Webshop

Unser Ziel bei Mimikama ist einfach: Wir kämpfen mit Humor und Scharfsinn gegen Desinformation und Verschwörungstheorien.

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstanden durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Kämpfe mit uns für ein echtes, faktenbasiertes Internet! Besorgt über Falschmeldungen? Unterstütze Mimikama und hilf uns, Qualität und Vertrauen im digitalen Raum zu fördern. Dein Beitrag, egal in welcher Höhe, hilft uns, weiterhin für eine wahrheitsgetreue Online-Welt zu arbeiten. Unterstütze jetzt und mach einen echten Unterschied! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.