FBI: Immer öfter Einsatz von Deepfakes bei Bewerbergesprächen

Bei sogenannten Remote-Tech-Jobs ist der Vorteil, dass man daheim arbeitet und man die Vorgesetzten und Kollegen nur über Video sieht. Doch immer öfter werden dabei von Betrügern Deepfakes eingesetzt.

Autor: Ralf Nowotny

Vielleicht habt ihr euch bei Meetings über Zoom, Skype und anderen Plattformen schon einmal den Spaß erlaubt, Katzenöhrchen aufzusetzen oder wie eine Kartoffel mit Augen und Mund auszusehen. Das sind witzige und harmlose Spielereien – im Gegensatz zu echten Realtime-Deepfakes, die laut dem FBI immer öfter bei Online-Bewerbungsgesprächen eingesetzt werden, um einen Job in einer datensensitiven Position zu bekommen.

Die öffentliche Bekanntmachung des FBI

In der öffentlichen Bekanntmachung (siehe HIER) teilt das FBI mit, dass sie mehr und mehr Meldungen von Arbeitgebern erhalten haben. Bewerber sollen bei Vorstellungsgesprächen gefälschte Videos, Bilder und Tonaufnahmen verwendet haben. Interessant dabei: Es handelt sich bei den Deepfake-Bewerbungen immer um Stellen im technischen Bereich mit Zugang zu sensiblen Daten.

Die Stellen waren immer als Fernarbeits- oder Heimarbeitsplätze ausgeschrieben, die Tätigkeitsbereiche lagen im Bereich der Informationstechnologie und Computerprogrammierung, Datenbanken und Software. Einige der gemeldeten Stellen beinhalten den Zugang zu personenbezogenen Daten von Kunden, Finanzdaten, IT-Datenbanken des Unternehmens und/oder geschützten Informationen.

Wie die Deepfakes auffielen

Im gewissen Rahmen sind Realtime-Deepfakes möglich, man denke dabei einfach nur an Spielereien wie in dem Programm „Facerig“ oder „Animaze“, mit denen man durch die automatische Erkennung der Augen, Nase und Mundpartie sein eigenes Gesicht in Echtzeit durch einen Avatar ersetzen kann.

MIMIKAMA
Eine Art des Deepfakes: Echzeit-Animationen von Avataren, Quelle: Animaze auf Steam

Realtime-Deepfakes sind da noch ein wenig komplizierter, da ja kein Anime-Mädchen oder ein sprechender Bär animiert werden müssen, sondern ein real aussehender Mensch – und da genügen die Markierungen der Gesichtspartien alleine nicht mehr.

Ein Manko der obigen Methode, genauso wie bei Realtime-Deepfakes: Oftmals sind Bild und Ton leicht versetzt oder die Animation „hängt“, wenn die Kamera die Gesichtspartien für eine Sekunde nicht richtig erfasst. Das fiel auch den Personen auf, die sich beim FBI meldeten:

In diesen Interviews stimmten die Handlungen und Lippenbewegungen der Person, die vor der Kamera interviewt wird, nicht vollständig mit dem Ton der sprechenden Person überein. Manchmal stimmten Aktionen wie Husten, Niesen oder andere auditive Aktionen nicht mit dem überein, was visuell dargestellt wird.

Gestohlene Daten als Grundlage der Deepfakes

Im Internet gibt es leider sehr viele Fallen für Nutzer, um deren Identität zu stehlen. Sehr häufig und bei Betrügern beliebt ist Facebook-Phishing, also das Erlangen der Zugangsdaten von Facebook-Nutzern, wir berichten beispielsweise HIER darüber.

Facebook-Profile sind perfekt für Betrüger, um einen kompletten Identitätsdiebstahl zu begehen und einen Bewerbungsgespräch-Deepfake vorzubereiten: Häufig gibt es genug Bilder und Privatinformationen, um sich dann mit diesen Daten bei einer Firma zu bewerben. Sollte diese einen kurzen Hintergrundcheck durchführen, bekommen sie ein echtes Profil zu sehen – mit dem Unterschied, dass es mittlerweile von Betrügern gesteuert wird.

Fazit

Ob es sich nun um Realtime-Deepfakes handelt oder um Video- und Tonschnipsel wie bei dem jüngsten Klitschko-Fake (wir berichteten): Noch sind solche Fälschungen mit ein wenig Aufmerksamkeit relativ leicht zu erkennen, doch die Technik wird zwangsläufig besser werden. Arbeitgeber mit freien Stellen in datensensitiven Positionen sollten also besonders aufmerksam ihre potenziellen Bewerber prüfen.

Artikelbild: Pexels/Pixabay

Unterstützen 🤍

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

Mit Deiner Unterstützung via PayPal, Banküberweisung, Steady oder Patreon ermöglichst Du es uns, Falschmeldungen zu entlarven und klare Fakten zu präsentieren. Jeder Beitrag, groß oder klein, macht einen Unterschied. Vielen Dank für Deine Hilfe! ❤️

Mimikama-Webshop

Unser Ziel bei Mimikama ist einfach: Wir kämpfen mit Humor und Scharfsinn gegen Desinformation und Verschwörungstheorien.

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstanden durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Kämpfe mit uns für ein echtes, faktenbasiertes Internet! Besorgt über Falschmeldungen? Unterstütze Mimikama und hilf uns, Qualität und Vertrauen im digitalen Raum zu fördern. Dein Beitrag, egal in welcher Höhe, hilft uns, weiterhin für eine wahrheitsgetreue Online-Welt zu arbeiten. Unterstütze jetzt und mach einen echten Unterschied! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.