Alexa und Co verstärken Geschlechtervorurteile

Ein Moment Ihrer Zeit für die Wahrheit.

In einer Welt voller Fehlinformationen und Fake News ist es unser Auftrag bei Mimikama.org, Ihnen zuverlässige und geprüfte Informationen zu liefern. Tag für Tag arbeiten wir daran, die Flut an Desinformation einzudämmen und Aufklärung zu betreiben. Doch dieser Einsatz für die Wahrheit benötigt nicht nur Hingabe, sondern auch Ressourcen. Heute wenden wir uns an Sie: Wenn Sie die Arbeit schätzen, die wir leisten, und glauben, dass eine gut informierte Gesellschaft für die Demokratie essentiell ist, bitten wir Sie, über eine kleine Unterstützung nachzudenken. Schon mit wenigen Euro können Sie einen Unterschied machen.

Stellen Sie sich vor, jeder, der diese Zeilen liest, würde sich mit einem kleinen Beitrag beteiligen – gemeinsam könnten wir unsere Unabhängigkeit sichern und weiterhin gegen Fehlinformationen ankämpfen.

So kannst Du unterstützen:

PayPal: Für schnelle und einfache Online-Zahlungen.
Steady oder Patreon: für regelmäßige Unterstützung.

Autor: Tom Wannenmacher

Artikelbild: Zapp2Photo - Shutterstock.com
Artikelbild: Zapp2Photo - Shutterstock.com

Aktueller Bericht der UNESCO fordert die Verwendung eines „neutralen Maschinengeschlechts“

Moderne Sprachassistenten wie Amazons Alexa, Apples Siri oder Microsofts Cortana reflektieren, verstärken und verbreiten stereotype Geschlechterbilder von Frauen. Diese werden durch entsprechende Technologien, die Usern mithilfe von Künstlicher Intelligenz (KI) den Alltag erleichtern sollen, oft auch herabgewürdigt und zu braven, willfährigen Gehilfinnen degradiert.

Zu dem Ergebnis kommt ein aktueller Bericht der UNESCO http://en.unesco.org , der die Hersteller unter anderem dazu auffordert, ihre Systeme nicht standardmäßig mit weiblichen Stimmen auszustatten, sondern stattdessen ein „neutrales Maschinengeschlecht“ zu verwenden.

Weibliches Erscheinungsbild

„Schon im nächsten Jahr wird es soweit sein. Dann werden vermutlich bereits mehr Menschen Gespräche mit ihren digitalen Sprachassistenten führen als mit ihren Ehepartnern“, heißt es von der UNESCO. Gegenwärtig sei die große Mehrheit dieser Assistenten von Werksseite her auf ein weibliches Erscheinungsbild getrimmt – sowohl in Bezug auf ihre Namen als auch ihre Stimmen und Persönlichkeiten. Mit dem Bericht, der in Kooperation mit dem deutschen Bundesministerium für wirtschaftliche Zusammenarbeit und Entwicklung http://bmz.de und der EQUALS Skills Coalition http://equals.org erarbeitet wurde, wolle man einen „kritischen Blick“ auf diese Praktiken werfen.

„Die Welt muss viel stärker darauf achten, wie, wann und ob KI-Technologien stereotype Vorstellungen von Geschlechterrollen einsetzen und verbreiten“,

betont Saniye Gülser Corat, Leiterin des Bereichs Gender Equality bei der Organisation der Vereinten Nationen für Erziehung, Wissenschaft und Kultur. Oft sei es nämlich so, dass durch den Einsatz solcher Geräte ein völlig falsches Bild entsteht, das zeigt, wie Frauen sich ausdrücken oder auf Bitten reagieren sollen.

„Eine synthetische weibliche Persönlichkeit muss Kommandos einer höheren, zumeist männlichen Autorität ausführen“, so Corat.

Zu wenig Frauen als Entwickler

Dass Alexa und Co großteils weiblich sind, sei allerdings auch ein Ausdruck für die zumeist sehr einseitige Zusammensetzung der KI-Entwickler-Teams, die für derartige Systeme verantwortlich sind.

„Diese Teams müssen in Bezug auf ihre geschlechtliche Zusammensetzung stärker ausbalanciert sein“, fordert die UNESCO. Im Moment würden Frauen nur zwölf Prozent der KI-Entwickler stellen, bei den Software-Entwicklern seien es sogar nur sechs Prozent. „Dieses Problem lässt sich nur durch besser ausgewogene digitale Bildungs- und Trainingsprogramme lösen“, ist die Organisation überzeugt.

UNESCO-Bericht „I’d blush if I could: closing gender divides in digital skills through education“ online verfügbar unter: http://bit.ly/2WlFOhh

Unterstützen 🤍

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

Mit Deiner Unterstützung via PayPal, Banküberweisung, Steady oder Patreon ermöglichst Du es uns, Falschmeldungen zu entlarven und klare Fakten zu präsentieren. Jeder Beitrag, groß oder klein, macht einen Unterschied. Vielen Dank für Deine Hilfe! ❤️

Mimikama-Webshop

Unser Ziel bei Mimikama ist einfach: Wir kämpfen mit Humor und Scharfsinn gegen Desinformation und Verschwörungstheorien.

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstanden durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Kämpfe mit uns für ein echtes, faktenbasiertes Internet! Besorgt über Falschmeldungen? Unterstütze Mimikama und hilf uns, Qualität und Vertrauen im digitalen Raum zu fördern. Dein Beitrag, egal in welcher Höhe, hilft uns, weiterhin für eine wahrheitsgetreue Online-Welt zu arbeiten. Unterstütze jetzt und mach einen echten Unterschied! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.