Microsoft ändert rassistische Software

Tom Wannenmacher, 28. Juni 2018
"Face-API": Fehlerhaftes Gesichtserkennungssystem soll Hauttöne kennenlernen.
"Face-API": Fehlerhaftes Gesichtserkennungssystem soll Hauttöne kennenlernen.

„Face-API“: Fehlerhaftes Gesichtserkennungssystem soll Hauttöne kennenlernen.

Microsoft hat einige wesentliche Verbesserungen an seiner fehlerhaften Gesichtserkennungs-Software „Face-API“ angekündigt. Die Software wurde Anfang 2018 wegen ihrer Fehlerquote von bis zu 20,8 Prozent in einer Forschungsarbeit massiv kritisiert. Experten warfen dem System rassistische Züge vor, nachdem es ihm nicht gelang, das Geschlecht von Menschen mit dunkleren Hauttönen korrekt zu identifizieren.

Branchenweite Herausforderung

Insbesondere bei Frauen versagte Face-API bislang.

„Mit den neuen Verbesserungen sind wir in der Lage, die Fehlerraten für Männer und Frauen mit dunkler Haut um das Zwanzigfache zu reduzieren. Für alle Frauen kann die Fehlerrate um das Neunfache reduziert werden“, so Microsoft in einem aktuellen Blog-Post. Im selben Zug weist das Unternehmen darauf hin, dass ihre fehlerhafte Gesichtserkennungs-Software auf ein weitaus größeres Problem deuten könnte.

„Die höheren Fehlerraten bei Frauen mit dunklerer Haut weisen auf eine branchenweite Herausforderung hin: Künstliche-Intelligenz-Technologien sind nur so gut wie die Daten, mit denen sie trainiert werden. Wenn ein Gesichtserkennungssystem über alle Menschen hinweg gut funktionieren soll, muss das Trainings-Datenset eine Vielfalt von Hauttönen sowie Faktoren wie Frisur, Schmuck und Brillen repräsentieren“, informiert Microsoft.

Logische Voreingenommenheit

Das Face-API-Team hat nun drei wichtige Änderungen an der Software vorgenommen. Es erweiterte und überarbeitete Trainings- und Benchmark-Datensätze, startete neue Versuche hinsichtlich der Datenerfassung zur weiteren Verbesserung der Trainingsdaten, indem es sich speziell auf Hautton, Geschlecht und Alter konzentrierte und verbesserte den Klassifikator, um präzisere Resultate zu erzielen.

Es sei nun eine Herausforderung, KI-Systeme so zu trainieren, dass sie gesellschaftliche Vorurteile nicht in ihre eigene Entscheidungsfindung einbeziehen.

„Diese Systeme werden notwendigerweise die gesellschaftliche Voreingenommenheit reproduzieren“, kritisiert Hanna Wallach vom Microsoft Research Lab New York abschließend.

Quelle: Pte


Hinweis: Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.

weitere mimikama-Artikel