-Mimikama unterstützen -

Gemeinsam gegen Fakes, Fake-News und anderen Unwahrheiten im Internet. Bitte hilf mit!

Aufgrund einer Wiedergabe in der Presse, dass Social Bots zu Wahlkampfzwecken einsetzen werden sollen, wollen wir dieses Thema genauer beleuchten: Social Bots. Was das bedeutet und warum wir entschieden gegen den Einsatz von Bots sind, werden wir in diesem Artikel genauer beschreiben.

-Produktempfehlung: Kaspersky lab-

Der Spiegel zitierte am 21. Oktober 2016 AfD Bundesvorstandsmitglied Alice Weidel:

„Selbstverständlich werden Social Bots in unserer Strategie im Bundestagswahlkampf bedacht werden“ […] „Gerade für junge Parteien wie unsere sind Social-Media-Tools wichtige Instrumente, um unsere Positionen unter den Wählern zu verbreiten.“ [1].

EDIT: mittlerweile gibt es von der AfD, bzw. Alice Weidel eine Gegendarstellung. Am 23. Oktober 2016 wurde veröffentlicht [1b]:

„Wir überlegen selbstverständlich, welche Tools im Social-Media-Bereich für unsere Öffentlichkeitsarbeit sinnvoll sind. Dazu gehören Analyse- oder Hilfsprogramme, die die tägliche Arbeit erleichtern könnten. Jedoch werden wir natürlich keine social bots einsetzen, die auf Seiten Dritter im Namen der AfD automatisiert posten oder ähnliches.“

Trotz Dementi ist es dennoch ist es wichtig, auf die Gefahren von Social Bots hinzuweisen und diese sehr ernst zu nehmen. Denn Social Bots gibt es bereits und wurden an anderen Stellen schon manipulativ eingesetzt.

Social Bots, was ist das?

Social Bots sind keine Menschen, sondern Programme, welche wie ein Account, ja wie ein Mensch in den sozialen Netzwerken agieren. Du denkst, du schreibst in den Kommentarspalten mit einem Menschen, der sich da gerade nicht beirren lässt? Pustekuchen – es ist ein Bot, der lediglich reagiert und zudem nicht umzustimmen ist. Social Bots sind zur Manipulation erschaffen, ganz einfach erklärt:

Der Vorteil von Bots: der Wartungsaufwand ist gering und Bots folgen ihrer programmierten Linie. Da sie keine Menschen sind, ist es somit auch egal und unerheblich, ob ein Bot inhaltlich korrekt agiert. Im Gegenteil: durch massenhaftes Auftreten von Bots kann eine Scheinmehrheit aufgebaut werden, sowie die Meinung der scheinbaren Menge als die “richtige” gedeutet werden.

Die Konrad Adenauer Stiftung veröffentlichte im September 2016 eine Analyse mit dem Titel “Invasion der Meinungs-Roboter” und beschreibt Social Bots dort [2]:

Social Bots sind von Menschen programmierte Software-Roboter. Sie sammeln Informationen und Daten, setzen aber auch bewusst Trends und Topthemen in den sozialen Medien, ohne dass der Nutzer davon Kenntnis hat. Das Beeinflussungspotenzial – der sogenannte „Bot-Effekt“ – ist theoretisch sehr groß, lässt sich empirisch aber nur schwer nachweisen.

Man könnte nun meinen, dass man Bots direkt erkenne und somit nicht auf Bots hereinfalle. Das ist aber Unsinn, denn es ist gerade eines der primären Ziele von Bots, eben als Mensch zu gelten. Da Bots in der Regel nicht gekennzeichnet sind als solche, sind sie nur sehr schwer zu erkennen. Etwas konkreter erklärt:

Gegenüber dem BR “Puls” sagte Markus Strohmaier, Informatik-Professor der Uni Koblenz [3]:

„Die Herausforderung ist es, diese Bots plausibel und glaubhaft zu implementieren. So, dass es den Eindruck macht, dass es sich um einen echten Menschen handelt, der tatsächliche Interessen verfolgt.“

Das Verhalten von Bots kann am Ende nicht nur dazu führen, dass Menschen manipuliert werden, sondern die gesamte Kommunikation in Netzwerken gestört wird, so dass viele Menschen sich aus der Diskussion entfernen, nicht mehr teilnehmen und somit verstummen. Dieses potentielle Resultat wäre somit nicht nur antidemokratisch, sondern auch eine Form des “Silencing” (Ruhigstellen gegnerischer Positionen).

Letztendlich darf man nicht aus den Augen verlieren: mit Hilfe von massenhaftem Auftreten geben Bots ein gefälschtes Bild der Realität wider.

Wie sieht so ein Bot aus?

Und was kann ein Bot? Wie bereits beschrieben, ist es nicht einfach, Bots zu identifizieren, da sie menschliches Verhalten nachahmen. Wie sehen Bots denn nun aus? Wie arbeiten sie? Grundsätzlich kann man sagen:

  • Bots posten häufig
  • Bots übernehmen den Antext aus Artikeln, die sie posten
  • Bots argumentieren auch auf verlorenem Posten weiter

Und Bots reagieren! Sie können auf Schlagworte reagieren und somit eine Scheindiskussion führen. Ein weiteres Element von Bots: sie bauen zwischendurch “menschliche” Posts ein. Meist emotionale Posts, um sich menschlich darzustellen. Ebenso sammeln Bots Freunde und Follower.

Eine ihrer besonderen Stärken ist jedoch nicht das plumpe Veröffentlichen und Verteilen von diversen Links/Artikeln, sondern die Fähigkeit, manipulativ in Ansätzen zu diskutieren. Ja, Bots können diskutieren! Wenn auch teilweise unsinnig, jedoch antwortet ein Bot. Wer das gerne in abgeschwächter und harmloser Form ausprobieren möchte, kann den Cleverbot nutzen. Dieser stellt jetzt nicht einen Account auf Facebook oder Twitter dar, sondern zeigt, dass Bots reagieren. Hier kann man die Tragweite erahnen, wie Bots agieren. Cleverbot kann international antworten und hat, was beängstigend ist, absichtlich programmierte Rechtschreibfehler. Damit wirkt er menschlich. Ein Auszug aus unserer Testdiskussion:

User: Ich bin nicht Deiner Meinung.

Cleverbot: Welcher Meinung bist du dann?

User: Das interessiert nicht.

Cleverbot: Du interessierst mich nich ok.

User: Was willst Du überhaupt?

Cleverbot: Was du gerne magst.

User: Das wird mit gerade zu doof.

Cleverbot: Das ist eben ein teil deines lebens.

User: Beweise doch, was du sagst!

Cleverbot: Woher willst du mich erkennen?

User: Du schreibst Unsinn.

Cleverbot: Was für unsinn alter.

Einsatz nicht neu

Bereits im US-amerikanischen Wahlkampf, der Debatte um den BREXIT und auch der Ukrainekrise wurden Bots eingesetzt: Bots hetzen auf, manipulieren und sorgen für eine Meinungshoheit. Aber auch in Deutschland sind Bots bereits unterwegs: nach Angaben der WELT [3] haben die Betreiber des Twitteraccounts “SozialbehördeHH” (die Behörde für Arbeit, Soziales, Familie und Integration der Hansestadt Hamburg) im August rund 200 Follower entfernt, die sie als Bots identifiziert haben. So zitiert die WELT:

„Das Thema Social Bots ist eines der aktuell diskutierten Angriffsszenarien. Neben der laufenden Fortentwicklung von technischen und organisatorischen Maßnahmen werden zurzeit zusätzlich Sensibilisierungskampagnen entwickelt und durchgeführt.“

An dieser Stelle möchten wir ebenso auf einen wichtigen Artikel von Martin Fuchs, Blogger und Politikberater, verweisen. Fuchs bringt es hierbei deutlich auf den Punkt [4]:

Social Bots sind eine Gefahr für die Demokratie

Social Bots sind Fake-Accounts, die im Netz wie Profile echter Menschen wirken können. Doch der Eindruck täuscht. Bots sind programmiert und posten Kommentare im Sinne ihrer „Besitzer“ – ihr Manipulationspotenzial ist gewaltig.

#NoBot!

Mimikama spricht sich deutlich gegen den Einsatz von Bots aus. Dabei spielt es keine Rolle, ob es sich um den Einsatz aus wirtschaftlichen Zwecken auf Dating-Plattformen oder in Rezensionsspalten handelt, oder mit politisch-manipulativen Zielen. Der Schutz des Menschen im Internet ist unser oberstes Ziel, daher ist ein Kampf gegen Bots die logisch zwingende Konsequenz. Ja, wir werden Bots daher in Zukunft weiter thematisieren und, was noch wichtiger ist, wir werden Bots jagen.

An dieser Stelle sehen wir auch die verantwortlichen Betreiber von sozialen Netzwerken in der Pflicht: Bots müssen als solche auch meldbar werden und sich einer Prüfung unterziehen lassen müssen. Bots müssen, so wie Menschen, auch auf Klarnamen geprüft werden dürfen. Es muss eine gesonderte Option zum Melden von Bots geschaffen werden, so dass die Betreiber (Facebook/Twitter etc.) auf Botmerkmale UND Klarnamen prüfen.

NoBot ist die klare Ansage: NEIN, wir wollen nicht durch Bots manipuliert werden.

An dieser Stelle verweisen wir nochmals auf die folgenden Artikel:

Artikel Vorschaubild: Lia Koltyrina / Shutterstock.com