Gesichts-Scan: KI beurteilt Gesichter oft rassistisch

Ralf Nowotny, 17. September 2019
Artikelbild: Shutterstock / Von yurakrasil

Die KI eines Kunstprojektes vergleicht mittels Gesichts-Scan das eigene Gesicht mit einer Datenbank und urteilt dabei häufig rassistisch.

Das Online-Kunstprojekt „ImageNet Roulette“ zeigt Internetnutzern, mit wie vielen Vorurteilen Künstliche Intelligenz (KI) in Bezug auf Gesichtserkennung durch einen Gesichts-Scan behaftet ist. Das Projekt wurde vom Künstler Trevor Paglen und der KI-Forscherin Kate Crawford ins Leben gerufen und soll User auf provokante Weise mit den Einschränkungen von KI konfrontieren.

Klassifizierung in nur einem Wort

Das Projekt will erforschen, „wie Menschen durch Datensets repräsentiert, interpretiert und kodifiziert werden, und wie technologische Systeme dieses Material sammeln und einordnen. Die Klassifizierung von Menschen durch KI wird immer komplexer, und dadurch zeigen sich auch ihre Vorurteile. In diesen Systemen wird aus der Einstufung schnell und heimlich ein moralisches Urteil“.

[mk_ad]

Um Gesichter zu erkennen, nutzt das Projekt die Forschungsdatenbank ImageNet, die jedem Bild ein Substantiv zuordnet. In dem Kunstprojekt zeigt sich, dass die Einschätzungen der Software über die Persönlichkeit der User in diesen Substantiven oft rassistische Klischees bedienen. Auf ImageNet Roulette ist es möglich, Fotos hochzuladen, die der ImageNet-Algorithmus dann auf Gesichter untersucht. Diese bewertet die KI schließlich nach ihrem scheinbar auffälligsten Charaktermerkmal. Diese Eigenschaften werden auf der Seite erläutert.

Bildquelle: pressetext

Schwarze Männer „Waisenkinder“

Im Test mit lizenzfreien Bildern schätzte die Seite farbige Männer häufig als „orphans“, also als Waisenkinder ein. Eine dunkelhäutige Frau wurde als „homegirl“ eingestuft, laut der Website handelt es sich dabei um ein weibliches Mitglied einer Gang. Einigen Twitter-Nutzern zufolge wurden dunkelhäutige Männer teilweise als „rape suspects“, also einer Vergewaltigung verdächtigt, eingestuft. Einen ersichtlichen Grund für diese Einschätzungen gibt es nicht.

Paglen und Crawford wollen mit ImageNet Roulette davor warnen, dass Gesichtserkennungs-Software oft mit problematischen Daten arbeitet. „Klassifizierungen durch KI sind für die betroffenen Personen selten sichtbar. ImageNet Roulette bietet einen Blick auf diesen Prozess und zeigt, was dabei schief gehen kann“, meint Paglen.

Quelle: pressetext
Artikelbild: Shutterstock / Von yurakrasil

Unabhängige Faktenchecks und Recherchen sind wichtig und richtig. Sie fördern Medienkompetenz und Bildung. 

Ein unabhängiges und für jeden frei zugängliches Informationsmedium ist in Zeiten von Fakenews, aber auch Message Control besonders wichtig. Wir sind seit 2011 bestrebt, allen Internetnutzern stets hochwertige Faktenchecks zu bieten.  Dies soll es auch langfristig bleiben. Dafür brauchen wir jetzt Deine Unterstützung!

Hinweis: Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.

weitere mimikama-Artikel