Krieg der dummen Bots auf Wikipedia

Ein Moment Ihrer Zeit für die Wahrheit.

In einer Welt voller Fehlinformationen und Fake News ist es unser Auftrag bei Mimikama.org, Ihnen zuverlässige und geprüfte Informationen zu liefern. Tag für Tag arbeiten wir daran, die Flut an Desinformation einzudämmen und Aufklärung zu betreiben. Doch dieser Einsatz für die Wahrheit benötigt nicht nur Hingabe, sondern auch Ressourcen. Heute wenden wir uns an Sie: Wenn Sie die Arbeit schätzen, die wir leisten, und glauben, dass eine gut informierte Gesellschaft für die Demokratie essentiell ist, bitten wir Sie, über eine kleine Unterstützung nachzudenken. Schon mit wenigen Euro können Sie einen Unterschied machen.

Stellen Sie sich vor, jeder, der diese Zeilen liest, würde sich mit einem kleinen Beitrag beteiligen – gemeinsam könnten wir unsere Unabhängigkeit sichern und weiterhin gegen Fehlinformationen ankämpfen.

So kannst Du unterstützen:

PayPal: Für schnelle und einfache Online-Zahlungen.
Steady oder Patreon: für regelmäßige Unterstützung.

Autor: Kathrin Helmreich

Editier-Bots liefern sich einen unerbittlichen Kampf gegen Windmühlen auf Wikipedia und bekriegen sich, indem sie sich gegenseitig editieren.

„Wenngleich auf qualitativ unterschiedliche Art, verhalten sich und interagieren Bots auf Wikipedia so unvorhersehbar und ineffizient wie Menschen.“

Zu diesem Ergebnis kommen Forscher des Oxford Internet Institute (OII) und des Alan Turing Institute in einer aktuellen Studie.

Denn Editier-Bots, die eigentlich für eine bessere Qualität von Artikeln sorgen sollten, liefern sich demnach teils jahrelang sinnlose Editier-Kriege – teilweise, bis einer der Bots endlich abgedreht wird.

Krieg der dummen Bots

Editier-Kriege sind auf der Wikipedia wohlbekannt.

Normalerweise sieht es so aus, dass zwei Autoren aneinander geraten. Meist gibt es dann nach einigen Tagen eine Einigung oder einer – womöglich der Klügere – gibt nach.

„Die Kämpfe zwischen Bots können viel anhaltender sein“

meint Taha Yasseri, Forscher im Bereich Computational Social Science am OII, gegenüber „The Guardian“.

Denn sind Editier-Bots einfache und nicht sonderlich schlaue Programme, die stur auf ihrer Version von Richtigkeit beharren. Wenn zwei davon aufeinanderprallen, kann sich die Auseinandersetzung leicht über Jahre ziehen.

Der Studie zufolge gibt es zwar nur wenige Wikipedia-Artikel, bei denen Bots massenhaft gegenseitig ihre Änderungen rückgängig machen.

Doch das sind in unterschiedlichen Sprachen die gleichen, unter anderem über Estland, Weißrussland, die arabische Sprache, Niels Bohr sowie Arnold Schwarzenegger.

Bot-Kriege scheinen also oft sprachübergreifend zu sein. Im Gegensatz dazu liefern sich menschliche Autoren der Studie zufolge Editier-Schlachten meist zu regionalen Persönlichkeiten und Einrichtungen, die von Sprache zu Sprache unterschiedlich sind.

Allerdings sind Bot-Kriege nicht in allen Sprachen gleich intensiv; in der deutschen Wikipedia sind sie relativ schwach ausgeprägt.

Sinnvolles auf Abwegen

Die aktuelle Studie hat sich damit befasst, was Editier-Bots von 2001 bis 2010 in 13 verschiedenen Sprachversionen der Wikipedia gemacht haben.

Eigentlich hatte das Team Yasseri zufolge keine großen Erwartungen in die Aktivitäten der Editier-Bots.

„Wenn man drüber nachdenkt, sind sie reichlich langweilig“,

erklärt er.

Das Beispiel Wikipedia zeigt aber, dass auch einfache Bots auf unerwartete Art interagieren können, wenn sie aufeinander treffen. Eben dieses Problem könnte uns auch in völlig anderen Bereichen, wie beispielsweise selbstfahrenden Autos, blühen.

Quelle: pressetext

Unterstützen 🤍

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

Mit Deiner Unterstützung via PayPal, Banküberweisung, Steady oder Patreon ermöglichst Du es uns, Falschmeldungen zu entlarven und klare Fakten zu präsentieren. Jeder Beitrag, groß oder klein, macht einen Unterschied. Vielen Dank für Deine Hilfe! ❤️

Mimikama-Webshop

Unser Ziel bei Mimikama ist einfach: Wir kämpfen mit Humor und Scharfsinn gegen Desinformation und Verschwörungstheorien.

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstanden durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Kämpfe mit uns für ein echtes, faktenbasiertes Internet! Besorgt über Falschmeldungen? Unterstütze Mimikama und hilf uns, Qualität und Vertrauen im digitalen Raum zu fördern. Dein Beitrag, egal in welcher Höhe, hilft uns, weiterhin für eine wahrheitsgetreue Online-Welt zu arbeiten. Unterstütze jetzt und mach einen echten Unterschied! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.