TikTok: Was den Content-Wächtern alles zugemutet wird

Wer denkt, dass die Videos aus der auf wahren Begebenheiten beruhenden Netflix Serie „Don’t fuck with cats“ das Schlimmste sind, was einem unterkommen kann, der hat noch keine Vorstellung davon, welche Inhalte den Content-Wächtern von TikTok zugemutet werden.

Autor: Marina Dullnig

Wir brauchen deine Hilfe – Unterstütze uns!
In einer Welt, die zunehmend von Fehlinformationen und Fake News überflutet wird, setzen wir bei Mimikama uns jeden Tag dafür ein, dir verlässliche und geprüfte Informationen zu bieten. Unser Engagement im Kampf gegen Desinformation bedeutet, dass wir ständig aufklären und informieren müssen, was natürlich auch Kosten verursacht.

Deine Unterstützung ist jetzt wichtiger denn je.
Wenn du den Wert unserer Arbeit erkennst und die Bedeutung einer gut informierten Gesellschaft für die Demokratie schätzt, bitten wir dich, über eine finanzielle Unterstützung nachzudenken.

Schon kleine Beiträge können einen großen Unterschied machen und helfen uns, unsere Unabhängigkeit zu bewahren und unsere Mission fortzusetzen.
So kannst du helfen!
PayPal: Für schnelle und einfache Online-Zahlungen.
Steady: für regelmäßige Unterstützung.

Das musst du dir ansehen

Die Social-Media-Plattform TikTok hat weltweit über 1,5 Milliarden User. Man vermag sich nicht vorzustellen, wie viele Kurzvideos mit den unterhaltsamsten und unterschiedlichsten, aber häufig auch besonders verstörenden Inhalten tagtäglich über die App hochgeladen werden.

Der Einsatz von Künstlicher Intelligenz ist zur Vorauswahl der Content-Inhalte unabdinglich. Jedoch sind diese Systeme hauptsächlich auf englischsprachige Inhalte trainiert und so kommt es dazu, dass in anderen Sprachräumen immer mehr Menschen solche Videos zu sehen bekommen.

Schlägt der Algorithmus Alarm, oder werden Videos von anderen Nutzern gemeldet, so kommen die Content-Wächter ins Spiel, um sich mit den Inhalten der TikToks auseinanderzusetzen. Was diese zu sehen bekommen, sollte keinem Menschen zugemutet werden müssen.

Die Bilder, die manuell von Mitarbeitern des luxemburgischen Outsourcing-Spezialisten Majorel überprüft werden müssen, gehen weit über Pornografie, Beschimpfungen und Drohungen hinaus.

Immer weiter, immer mehr

Explosionsartig steigen TikToks Nutzerzahlen in Nordafrika und im Nahen Osten an. Um die Qualitätskontrolle dieser Videomenge gewährleisten zu können, reagiert Majorel mit einer Erweiterung des Moderationsteams in diesen Regionen.

Nun teilten ehemalige und aktuell beschäftigte Moderatoren ihre Erfahrungen anonym mit „Business Insider“.

Tierquälerei und Selbstmord

Mitarbeiter erzählen von Videos, in denen Tiere auf grausamste Art und Weise gequält und getötet werden, Menschen verletzt und misshandelt werden oder wie sie sogar dabei zusehen müssen, wie andere vor laufender Kamera Selbstmord begehen.

Die Beschäftigten sind zudem dazu angehalten, die Inhalte der TikTok in Kategorien einzuordnen und müssen die Videos daher bis zum Ende ansehen.

Pausenlose Belastung

Der Druck, der auf die Mitarbeiter ausgeübt wird, ist enorm. Für ein Pilotprojekt sollten ursprünglich 200 TikTok-Livevideos pro Stunde pro Mitarbeiter kontrolliert und kategorisiert werden. Das entspricht einer Bearbeitungszeit von etwa 3 Videos pro Minute. Später wurde diese Anzahl so drastisch erhöht, dass nur noch 10 Sekunden pro Video verfügbar waren. Konnten diese Vorgaben nicht erreicht werden, so wurden die Mitarbeiter zurechtgewiesen, und die Bonuszahlungen blieben aus.

Wie Betroffene dem „Business Insider“ mitgeteilt haben, wurde auf die Bedürfnisse der Mitarbeiter keinerlei Rücksicht genommen. So wurden Dienstpläne kurzerhand geändert und Arbeitseinsätze von bis zu zwölf Stunden eingefordert. Auf Pausen und Erholungsphasen wurde keine Rücksicht genommen.

Fehlende Hilfsangebote

Laut Majorel würde es zahlreiche Angebote an die Mitarbeiter geben, um diese bei ihrer Arbeit und darüber hinaus zu betreuen und zu unterstützen. So bezieht sich das Unternehmen auf verschiedene Tools, mit denen die verstörenden Inhalte durch einen Grau-Filter „erträglicher“ gemacht werden könnten. Die betroffenen Mitarbeiter hätten solche Möglichkeiten jedoch nie zur Verfügung gehabt.

In monatlichen Treffen können Betroffene mit ihrem Betreuer über das Erlebte sprechen. Dieses Angebot reicht jedoch bei Weitem nicht aus, um das Gesehene aufzuarbeiten oder mit dem Druck fertig zu werden. Zudem würde es die Möglichkeit geben, sich außerhalb des Unternehmens eine psychologische Betreuung zu suchen, jedoch wussten vier von fünf Moderatoren von einem solchen Angebot nichts.

Das macht einen krank

Die verschiedensten Inhalte, welche Moderatoren zugemutet werden, können zu schweren psychischen und seelischen Belastungen werden und einen wortwörtlich krank machen. Diese Erfahrungen kann man mit der Kündigung nicht so einfach wieder loswerden, wie Betroffene berichten. Eine psychotherapeutische Nachbetreuung ist häufig notwendig.  

Das könnte dich auch interessieren:
Morde, Kinderpornos und mehr! Ex-Moderatoren klagen TikTok
Facebook wird erkrankten Moderatoren 47,89 Mio. Euro zahlen

Quelle: derStandard

Unterstützen 🤍

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

Mit Deiner Unterstützung via PayPal, Banküberweisung, Steady oder Patreon ermöglichst Du es uns, Falschmeldungen zu entlarven und klare Fakten zu präsentieren. Jeder Beitrag, groß oder klein, macht einen Unterschied. Vielen Dank für Deine Hilfe! ❤️

Mimikama-Webshop

Unser Ziel bei Mimikama ist einfach: Wir kämpfen mit Humor und Scharfsinn gegen Desinformation und Verschwörungstheorien.

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstanden durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Kämpfe mit uns für ein echtes, faktenbasiertes Internet! Besorgt über Falschmeldungen? Unterstütze Mimikama und hilf uns, Qualität und Vertrauen im digitalen Raum zu fördern. Dein Beitrag, egal in welcher Höhe, hilft uns, weiterhin für eine wahrheitsgetreue Online-Welt zu arbeiten. Unterstütze jetzt und mach einen echten Unterschied! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.