Blogheim.at Logo
Start Aktuelles Deep Fakes - Können Nutzer damit erpresst werden?

Deep Fakes – Können Nutzer damit erpresst werden?

Aktuelles Titelthema

Ich habe keine Lust mehr auf Lockdown! [Ein Kommentar]

„Ich will keinen Lockdown mehr. Ich werde so müde all des Ganzen. Es ist un-menschlich." „Und ich will kein Corona bekommen, verbreiten und keine Menschen...

Schauen wir zu sehr auf Virologen und Inzidenzzahlen? [Titelthema Lockdown]

Mit Blick auf die Aussagen der PsychologInnen stellt sich nun die Frage, ob in den letzten Monaten das Problem psychischer Erkrankungen im Lockdown nicht...

Kernteil: Kritische Betrachtung [Titelthema Lockdown]

Fehlende Strukturen, nicht vorhandene Linien, sich ständig ändernde Situationen im Lockdown. Die Coronakrise ist nicht einfach. Sicherlich, niemand von uns will mit entscheidenden Politikern und...

Kernteil – Psychologische Auswirkungen [Titelthema Lockdown]

Wie sieht die psychologische Komponente aus? Wir alle gehen unterschiedlich mit der Situation im Lockdown um. Es gibt Menschen, die reiben sich auf, andere...

Facebook-Themen

Warnung nach erfolgreichem Betrug: angebotenes Erbe über Facebook

Über Betrugsmasche mit der Erbschaft auf Facebook berichten wir schon seit Jahren! Internetbetrüger haben sich dabei auf Kreditkartenbetrug, Dokumentenfälschung, und Vorschussbetrug spezialisiert. Sie kontaktieren ahnungslose...

Facebook: Rechte Desinformationen erhalten laut Forschenden die meisten Post-Interaktionen

Man kann vieles über Menschen von Rechtsaußen sagen: Dass sie teils menschenverachtende Ansichten haben und sich oft von der Außenwelt unterdrückt und zutiefst missverstanden...

Nein, Corona ist laut EU-Definition keine „seltene Krankheit“

Laut EU-Definition soll es sich beim Coronavirus um eine "seltene Krankheit" handeln. Dies ist nicht richtig! Diese Information wird aktuell in sozialen Medien verbreitet. Damit...

Facebook News startet im Mai 2021 in Deutschland

Im Mai wird Facebook sein neues Nachrichtenangebot auch in Deutschland starten - mit mehr als 100 Medienmarken. Mit Facebook News startet der Konzern nun auch...
-WERBUNG-

Deep Fakes – Dieser Begriff steht für gefälschte Videos, die den Eindruck machen, dass bestimmte Personen in einem Video etwas tun oder sagen, was nicht der Wahrheit entspricht.

- Werbung -

Seit einiger Zeit bereits kursiert ein bestimmtes Tool namens „FakeApp“ im Internet. Den neugierigen Lesern sei jetzt schon gesagt, dass ihr beim Download gut aufpassen müsst, es schwirren viele virenverseuchte Versionen durchs Netz! Mit diesem Programm ist es, leistungsstarker PC und viel Zeit vorausgesetzt, möglich, Fake-Videos zu erzeugen, die in ihrer Qualität kaum von echten Videos zu unterscheiden sind. Dabei werden in den entsprechenden Videos nur die Gesichter ausgetauscht. Das „Deep“ in „Deep Fake“ steht für „deep intelligence“, also tiefere Intelligenz, da der Computer anhand von Fotos weitere Mimiken der eingefügten Gesichter errechnet.

Kann eine App denn wirklich sowas?

Nachdem diese App eher unentdeckt vom normalen Internet-Nutzer blieb, erreichte sie nun mediale Aufmerksamkeit, nachdem der Bayerische Rundfunk Anfang August über die Möglichkeiten berichtete und selbst ein gefaktes Video mit Angela Merkel erstellte. Seit es diese App gibt, erfreut sie sich bei einem bestimmten Kreis von Nutzern großer Beliebtheit, indem beispielsweise Fake-Pornos mit Prominenten erstellt werden.

Ist diese App denn legal?

Mit „FakeApp“ ist es wie mit „Photoshop“: die Programme selbst sind legal. Natürlich gerät aber ein Programm mehr und mehr in Verruf, je öfter es für mißbräuchliche Zwecke verwendet wird. Aber während Photoshop relativ teuer und die Erstellung von Fakes nicht dessen Grundfunktion ist, ist FakeApp kostenlos und speziell dafür ausgelegt, Fake-Videos zu erzeugen.

Ist das eine neue Methode?

Neu nur in dem Sinne, dass es diese App auch Privatnutzern möglich macht, jene Technologie zu verwenden. In Hollywood wird das „Face Swapping“ bereits verwendet, ein prominentes Beispiel ist die junge Prinzessin Leia Organa in „Star Wars – Rogue One“.

Screenshot "The Hollywood Reporter"
Screenshot „The Hollywood Reporter

Kann das jeder machen?

Prinzipiell ja. Es gibt da aber einige Voraussetzungen: Der PC muss ein Windows-System haben, die Grafikkarte sollte mindestens 6 GB an Speicher besitzen und man sollte im Idealfall mehrere Hundert Fotos der Person haben, deren Gesicht man in ein Video projezieren will. Außerdem braucht es Zeit, da, je nach Leistung eines PCs, es mehrere Stunden (schwache Qualität) bis Tage dauern kann, bis ein solches Video glaubhaft fertig gerendert ist. Zudem sollte der Nutzer und die Person, dessen Gesicht im Video vertauscht werden, eine gewisse Ähnlichkeit besitzen.

Erpresser nutzen die Angst

Wenn man nur oberflächlich von „Deep Fakes“ gehört oder gelesen hat, kommt man auf die Idee, dass es sehr einfach wäre, mit jeder beliebigen Person solche Videos zu erzeugen. Erpresser nutzen dieses Unwissen nun, wie die Thüringer Polizei berichtet:

„Am 18.08.2018 erschien ein Anzeigenerstatter auf der Polizei in Meiningen um eine Erpressung anzuzeigen. Zuvor nahm er eine Freundschaftsanfrage von einer ihm unbekannten Person in Facebook an. Diese Person öffnete einen Chat und bedrohte ihn anschließend damit ein manipuliertes Video, bei welchem er eingefügt wird, in das Internet zu stellen, falls er nicht sofort Geld an ein bestimmtes Konto überweist. Der Geschädigte erstatte daher Anzeige wegen Erpressung, meldete die Person an Facebook und blockierte den Kontakt.“

Nochmal Klartext: Kann ich so erpresst werden?

Theoretisch ja. Praktisch aber ist es ein ungeheurer Aufwand, der auch noch kaum glaubhafte Ergebnisse liefert. Wie schon oben erwähnt, braucht es für so einen „Deep Fake“ hunderte von Fotos der Zielperson. Wenn man also nicht gerade jemand ist, der Hunderte Selfies auf Facebook postet, ist man schonmal auf der sicheren Seite. Außerdem ist eine bestimmter Ähnlichkeitsgrad der vertauschten Gesichter nötig.

Es ist auch möglich, mit weniger Fotos so einen „Deep Fake“ zu erstellen. Dann müssen diese Fotos allerdings auch genau in den richtigen Lichtverhältnissen aufgenommen worden sein, da die App die Lichtverhältnisse nur sehr ungenügend neu berechnen kann. Zudem müssen diese Fotos auch in verschiedenen Winkeln und Mimiken vorhanden sein, damit der Algorithmus des Programms das Gesicht „erlernen“ kann. Und das klappt so gar nicht wirklich, wenn vielleicht nur 20 Fotos vorhanden sind, die dazu noch alle verschiedene Lichtverhältnisse haben.

Deswegen klappt das auch mit Prominenten, von denen es nunmal Hunderte bis Tausende Fotos gibt, relativ gut, bei Privatpersonen hingegen ist es ein Ding der Unmöglichkeit.

Gibt es eine Möglichkeit, Deep Fake-Videos zu erkennen?

Ja. Denn so beeindruckend diese technische Möglichkeit auch ist, hat sie einen kleinen, aber bedeutsamen Fehler: Sie kann nicht das Augenzwinkern von Menschen berechnen!
In einer Untersuchung des Computer Science Department der University of Albany zeigte sich, dass die Augen in solchen Videos entweder komplett starr sind oder das Augenzwinkern sehr „verwischt“ aussieht.

Fazit

Solche Erpressungsversuche beruhen auf dem Vertrauen der Erpresser, dass ein Empfänger jener Erpressungen gar nichts oder nur sehr rudimentär von jener Technik gehört und gelesen hat. Als Laie glaubt man natürlich, dass dies sicherlich „bei der heutigen Technik“ einfach möglich ist und zahlt lieber, bevor sich ein solches Video verbreitet.

So einfach ist dies jedoch dann doch nicht. Deswegen raten wir euch, falls ihr Opfer eines solchen Erpressungsversuchs werden solltet, euch wie der Nutzer im Polizeibericht zu verhalten: nicht zahlen und der Polizei melden!

- Werbung -

Hinweis: Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.

Die Corona-Krise! Wir brauchen deine Unterstützung! Die Corona-Krise stellt uns alle vor großen Herausforderungen und bringt uns an unsere Grenzen. Jeder gibt seinen Teil dazu bei um zu Unterstützen. Gegenüber anderen Medien haben wir keine “Pay-Wall” eingerichtet, denn wir möchten unsere Inhalte für alle offen halten. Wenn jeder, der unsere Faktenchecks liest, dabei hilft, diese zu finanzieren, wird es mimikama auch weiterhin geben und wir können gemeinsam gegen Fakenews vorgehen. Unterstütze uns und tragen auch Du dazu bei, die Zukunft von Mimikama zu sichern. Hier kannst Du unterstützen: via PayPal, Steady oderPatreon

„Undo“-Button gibt Twitter-Usern Bedenkzeit

Nutzer erhalten für Löschung von Tweet fünf Sekunden Zeit - Ausbessern von Fehlern möglich! Twitter erwägt eine "Undo"-Otpion, mit der User nach dem Posting ein...

Mutti, her mit dem Selbsttest. Ich teste nun den Supermarkt!

Klaus-Dietmar war mal wieder auf Telegram unterwegs. Dort hat er was über den Selbsttest gelesen. Und zwar geht es um eine Aktion, die Klaus-Dietmar ganz...

Johnson & Johnson Impfstoff: abgetriebene Föten? [Faktencheck]

Alter Vorwurf in neuer Form: Die Erzdiözese New Orleans spricht von moralisch kompromittiertem Impfstoff von Johnson & Johnson. Der Vorwurf gegenüber Johnson & Johnson: der...

Der Agenda 2030-Kreis – Kein „Symbol des Bösen“ (und auch kein Great Reset-Symbol)

Eine runde Anstecknadel, die in mehrere Farben unterteilt wird, wird als Symbol des Bösen bezeichnet, welches den "Great Reset" symbolisieren soll. Doch wird da...

San Diego: Affen im Zoo erhalten experimentellen COVID-Impfstoff

Premiere für die Menschenaffen im Zoo in San Diego: Sie erhalten einen COVID-19-Impfstoff für Tiere Vier Orang-Utans und fünf Bonobos wurden im Zoo von San...
-WERBUNG-
-WERBUNG-