Haben Autokraten auf Facebook mehr Macht?

Autor: Annika Hommer

Haben Autokraten auf Facebook mehr Macht?
Artikelbild: Shutterstock / Von TY Lim

Wer die Facebook-Algorithmen für sich zu nutzen weiß, kann davon profitieren. Das gilt nicht nur für den Influencer von nebenan, der sein neues Katzenvideo promoten will, sondern auch für autokratische Regierungen.

Eine ehemalige Facebook-Mitarbeiterin leakte nun Informationen, die zeigen, wie unterschiedlich der Social Media Riese bei der Bekämpfung von politischem Missbrauch auf seiner Plattform umgeht.

Politischer Missbrauch auf Facebook seit US-Wahlen 2016 im Fokus

Insbesondere seit den US-Wahlen im Jahr 2016 erhält das Thema der politischen Manipulation auf Facebook zunehmende Aufmerksamkeit. Hier soll Donald Trump unter anderem mithilfe russischer Unterstützer knapp die Wahl gewonnen haben. Seine Zusicherung, in derlei Zusammenhängen strikter durchgreifen zu wollen, folgte Facebook im vergangenen November als der Konzern damit begann, gegen Falschmeldungen Trumps, beispielsweise über das amerikanische Briefwahlsystem, vorzugehen. Enthüllungen der ehemaligen Facebook-Mitarbeiterin und Datenwissenschaftlerin Sophie Zhang sowie ein Bericht des „Guardian“ zeigten nun allerdings, dass das Unternehmen bei weitem nicht immer auf diese Weise agiert.

Kündigung nach erfolgloser Kritik

Zheng gibt an, Facebook immer wieder mit konkreten Beweisen auf Manipulationen und politischen Missbrauch aufmerksam gemacht zu haben. Das Unternehmen habe darauf nicht reagiert und Zheng letztendlich gekündigt. Facebook selbst gibt an, Zheng habe „schlecht performt“, was zur Entlassung geführt habe. In einem 7.800 Wörter umfassenden Text erörterte die Datenwissenschaftlerin vor ihrem Weggang erneut die Probleme und veröffentlichte diesen sowohl in einem internen Forum, als auch auf einer eigenen passwortgeschützten Website, deren Kennwort sie an ihre Kollegen gab. Sowohl der Forumseintrag als auch die Website Zhengs wurde auf Druck von Facebook durch den Domain-Registrar offline genommen.

Honduranischer Präsident als Beispiel

Die Enthüllungen von Sophie Zheng stellen dar, inwiefern Facebook ein Vorgehen gegen Meinungsmanipulation und Drohungen durch Autokraten unterlässt, wenn dies nicht im eigenen Sinne sei. Sprich, wenn das Interesse von Öffentlichkeit und Medien groß sei, ginge der Konzern rigoros gegen derlei Inhalte vor, sei das Interesse gering, lohne sich der Aufwand kaum.

Ein Beispiel hierfür sei die Facebook-Seite des honduranischen Präsidenten Juan Orlando Hernández gewesen. In einem Zeitraum von sechs Wochen (Juni bis August 2018) stammten 78 Prozent der Likes von insgesamt 59.000 Nutzern auf seiner Seite von nachweislichen Fake-Accounts, die sowohl Privatpersonen, als auch Firmen, Organisationen oder bekannte Persönlichkeiten nachahmten. Die falschen Accounts wurden zur Verbreitung der Inhalte von Hernández‘ Seite genutzt. Bedenklich ist dies insbesondere, da seiner Regierung diverse Menschenrechtsverletzungen sowie Drogenschmuggel vorgeworfen werden und es bereits 2017 Vorwürfe wegen Wahlbetrugs des Rechtsnationalisten vorlagen. Aufgrund von mangelndem öffentlichem Druck und Interesse haben die Facebook-Verantwortlichen in diesem Falle nichts unternommen.

Erst nachdem die Erkenntnisse Zhengs hierzu in eine Untersuchung des sog. Thread Intelligence- Teams von Facebook aufgenommen und dort bestätigt wurden, habe der Konzern 181 Konten und fast 1.500 Seiten gelöscht, die in die gezielte Meinungsmanipulation des Präsidenten involviert waren.

Kein Einzelfall

Ähnliche Fälle habe es mit Regierungen in Aserbaidschan, Paraguay, Argentinien, Mexiko und den Philippinen gegeben. Zheng zufolge gehe Facebook zu zögerlich mit mächtigen Politikern um. Facebook selbst äußerte sich bislang nicht zu den Vorwürfen der Datenexpertin aus ihrer Zeit als Angestellte, betonte jedoch, wie „aggressiv“ man gegen politische Manipulation auf der Plattform vorginge. Dies sei für das Unternehmen sowohl im In- als auch im Ausland eine absolute Priorität.

[mk_ad]

Quelle: derStandard.at
Auch interessant:
Europarat empfiehlt nur Freiwilligkeit, verbietet aber keinen „Impfzwang“
Unterstützen 🤍

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

Mit Deiner Unterstützung via PayPal, Banküberweisung, Steady oder Patreon ermöglichst Du es uns, Falschmeldungen zu entlarven und klare Fakten zu präsentieren. Jeder Beitrag, groß oder klein, macht einen Unterschied. Vielen Dank für Deine Hilfe! ❤️

Mimikama-Webshop

Unser Ziel bei Mimikama ist einfach: Wir kämpfen mit Humor und Scharfsinn gegen Desinformation und Verschwörungstheorien.

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstanden durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Kämpfe mit uns für ein echtes, faktenbasiertes Internet! Besorgt über Falschmeldungen? Unterstütze Mimikama und hilf uns, Qualität und Vertrauen im digitalen Raum zu fördern. Dein Beitrag, egal in welcher Höhe, hilft uns, weiterhin für eine wahrheitsgetreue Online-Welt zu arbeiten. Unterstütze jetzt und mach einen echten Unterschied! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.