Microsoft nimmt Social-Rassismus-Bot wieder vom Netz

Autor: Andre Wolf

Wir brauchen deine Hilfe – Unterstütze uns!
In einer Welt, die zunehmend von Fehlinformationen und Fake News überflutet wird, setzen wir bei Mimikama uns jeden Tag dafür ein, dir verlässliche und geprüfte Informationen zu bieten. Unser Engagement im Kampf gegen Desinformation bedeutet, dass wir ständig aufklären und informieren müssen, was natürlich auch Kosten verursacht.

Deine Unterstützung ist jetzt wichtiger denn je.
Wenn du den Wert unserer Arbeit erkennst und die Bedeutung einer gut informierten Gesellschaft für die Demokratie schätzt, bitten wir dich, über eine finanzielle Unterstützung nachzudenken.

Schon kleine Beiträge können einen großen Unterschied machen und helfen uns, unsere Unabhängigkeit zu bewahren und unsere Mission fortzusetzen.
So kannst du helfen!
PayPal: Für schnelle und einfache Online-Zahlungen.
Steady: für regelmäßige Unterstützung.

Oder: “wie eine künstliche Intelligenz zum Rassisten wird”. Das ganze ist kein Fake: Microsoft startete mit der künstlichen Intelliganz TAY ein Experiment. Tay tweetete auf Twitter, Tay unterhielt sich mit den Menschen und lernte aus den Situationen.


SPONSORED AD


Und Tay passte sich selber an, was letztendlich auch dazu führte, dass Microsoft letztendlich Tay Gelerntes von sich gab. Problem dabei: das Gelernte war dann eher nicht im Sinne der Erfinder. Tay wurde beleidigend, rassistisch und frauenfeindlich. Und das innerhalb von 24 Stunden.

image

Tay – @TayandYou

Tay ist eine künstliche Intelligenz, welche von Microsoft vorgestellt wurde und sich auf Twitter, Groupme und Kik mit den Menschen unterhalten sollte. Tay hat zunächst ein gewisses Basiswissen an die Hand bekommen (nach Aussage von Microsoft “relevant public data”) und programmiert, improvisieren zu können. Und eben zu kombinieren und inhaltlich zusammenhängend zu antworten. Was aber in der Realität daraus wurde, lässt schaudern: Tay fehlte die Möglichkeit, Inhalte zu bewerte und sortieren zu können. So ließ sich Tay völlig gleichwertig von den verschiedensten Informationen beeinflussen, teilweise lag der Beeinflussung auch gezielt vor, da mehrere Accounts dazu aufriefen, Tay bewusst mit falschen Einschätzungen zu füttern. Das Resultat war ein rassistisch-frauenfeindlicher Beleidigungsbot:

Microsoft reagierte darauf und löschte Tays Kommentare zunächst, als jedoch Tays Interaktion immer heftiger wurde, zog man komplett die Bremse. Tay tweetet nicht mehr.

Bewertung

Ist Tay nun ein misslungenes Experiment? Nein, unserer Ansicht nach eher nicht. Auch Golem meint [1], dass es sich hierbei nicht um einen Fehlschlag handeln muss:

Ein Fehlschlag muss das Experiment mit Tay allerdings nicht unbedingt sein: Es ist sicher interessant zu beobachten, wie schnell eine unbedarfte KI beeinflussbar ist und sich – basierend auf eigenen, als sinnvoll erachteten Analysen – plötzlich rassistisch äußert.

Auch einige User sind der Ansicht, dass man hätte Tay auf keinen Fall löschen dürfen, sondern als ein Mahnmal hatte stehen lassen müssen, in dem die Gefahren künstlicher Intelligenz deutlich zu sehen sind:

Der Spiegel meint [2] an dieser Stelle, das Tay einfach noch nicht reif genug war.

In den Robotergesetzen des Science-Fiction-Autors Isaac Asimov steht: „Ein Roboter darf keinen Menschen verletzen.“ Tay war offenkundig noch nicht soweit.

An dieser Stelle ergänzen wir noch, dass wohl nicht nur Tay noch nicht reif genug für die Menschen war, offenkundig sind die Menschen auf noch nicht reif genug für Tay.

Unterstützen 🤍

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

Mit Deiner Unterstützung via PayPal, Banküberweisung, Steady oder Patreon ermöglichst Du es uns, Falschmeldungen zu entlarven und klare Fakten zu präsentieren. Jeder Beitrag, groß oder klein, macht einen Unterschied. Vielen Dank für Deine Hilfe! ❤️

Mimikama-Webshop

Unser Ziel bei Mimikama ist einfach: Wir kämpfen mit Humor und Scharfsinn gegen Desinformation und Verschwörungstheorien.

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstanden durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Kämpfe mit uns für ein echtes, faktenbasiertes Internet! Besorgt über Falschmeldungen? Unterstütze Mimikama und hilf uns, Qualität und Vertrauen im digitalen Raum zu fördern. Dein Beitrag, egal in welcher Höhe, hilft uns, weiterhin für eine wahrheitsgetreue Online-Welt zu arbeiten. Unterstütze jetzt und mach einen echten Unterschied! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.