Blogheim.at Logo
Freitag, 23 Juli 2021
StartAktuellesGesichts-Scan: KI beurteilt Gesichter oft rassistisch

Bitte unterstütze uns! Werde jetzt mimikamaPLUS- Abonnent und unterstütze so unser Handeln.

Gesichts-Scan: KI beurteilt Gesichter oft rassistisch

Facebook-Themen

Die KI eines Kunstprojektes vergleicht mittels Gesichts-Scan das eigene Gesicht mit einer Datenbank und urteilt dabei häufig rassistisch.

Das Online-Kunstprojekt „ImageNet Roulette“ zeigt Internetnutzern, mit wie vielen Vorurteilen Künstliche Intelligenz (KI) in Bezug auf Gesichtserkennung durch einen Gesichts-Scan behaftet ist. Das Projekt wurde vom Künstler Trevor Paglen und der KI-Forscherin Kate Crawford ins Leben gerufen und soll User auf provokante Weise mit den Einschränkungen von KI konfrontieren.

Klassifizierung in nur einem Wort

Das Projekt will erforschen, „wie Menschen durch Datensets repräsentiert, interpretiert und kodifiziert werden, und wie technologische Systeme dieses Material sammeln und einordnen. Die Klassifizierung von Menschen durch KI wird immer komplexer, und dadurch zeigen sich auch ihre Vorurteile. In diesen Systemen wird aus der Einstufung schnell und heimlich ein moralisches Urteil“.

Um Gesichter zu erkennen, nutzt das Projekt die Forschungsdatenbank ImageNet, die jedem Bild ein Substantiv zuordnet. In dem Kunstprojekt zeigt sich, dass die Einschätzungen der Software über die Persönlichkeit der User in diesen Substantiven oft rassistische Klischees bedienen. Auf ImageNet Roulette ist es möglich, Fotos hochzuladen, die der ImageNet-Algorithmus dann auf Gesichter untersucht. Diese bewertet die KI schließlich nach ihrem scheinbar auffälligsten Charaktermerkmal. Diese Eigenschaften werden auf der Seite erläutert.

Bildquelle: pressetext

Schwarze Männer „Waisenkinder“

Im Test mit lizenzfreien Bildern schätzte die Seite farbige Männer häufig als „orphans“, also als Waisenkinder ein. Eine dunkelhäutige Frau wurde als „homegirl“ eingestuft, laut der Website handelt es sich dabei um ein weibliches Mitglied einer Gang. Einigen Twitter-Nutzern zufolge wurden dunkelhäutige Männer teilweise als „rape suspects“, also einer Vergewaltigung verdächtigt, eingestuft. Einen ersichtlichen Grund für diese Einschätzungen gibt es nicht.

Paglen und Crawford wollen mit ImageNet Roulette davor warnen, dass Gesichtserkennungs-Software oft mit problematischen Daten arbeitet. „Klassifizierungen durch KI sind für die betroffenen Personen selten sichtbar. ImageNet Roulette bietet einen Blick auf diesen Prozess und zeigt, was dabei schief gehen kann“, meint Paglen.

Quelle: pressetext
Artikelbild: Shutterstock / Von yurakrasil

Wir brauchen deine Unterstützung!

Im Gegensatz zu anderen Medien haben wir bei unseren Faktenchecks keine “Paywall” eingerichtet, denn wir möchten unsere Inhalte für alle offen halten. Wenn jeder, der unsere Faktenchecks liest, dabei hilft, diese zu finanzieren, wird es Mimikama auch weiterhin geben und wir können gemeinsam gegen Fake-News vorgehen. Unterstütze uns und trage auch du dazu bei, die Zukunft von Mimikama zu sichern. Hier kannst du unterstützen: via PayPal oder Patreon. Gerne kannst Du aber auch ein mimikamaPLUS- Abonnent werden.

Hinweis: Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.

Aktuelle Artikel