Fake People – Den Einfluss von Bots verstehen

Das Phänomen der Fake News hängt eng mit einem anderen Internet-Phänomen zusammen: dem von falschen Userprofilen – den Fake People. Was Fake News sind und wie sie die öffentliche Meinung beeinflussen können, haben wir uns hier im Blog schon einmal angeschaut. Fake People tauchen vermehrt in bestimmten Zusammenhängen auf, schalten sich in Online-Unterhaltungen ein und sorgen dafür, dass bestimmte Themen stärker diskutiert werden und damit mehr Aufmerksamkeit bekommen als sie de facto haben. Eine Variante des falschen Userprofils ist das automatisierte Profil – der Bot.

Was ist ein Bot?

Wikipedia sagt: „Unter einem Bot (von englisch robot ‚Roboter‘) versteht man ein Computerprogramm, das weitgehend automatisch sich wiederholende Aufgaben abarbeitet, ohne dabei auf eine Interaktion mit einem menschlichen Benutzer angewiesen zu sein.“ Ein Bot ist also erst einmal nichts anderes als eine Software, die eine definierte Aufgabe erfüllt – und zwar autonom. Oft ist diese Software ziemlich einfach gestrickt: Sie reagiert auf bestimmte Signale und spult dann ihr Programm ab. Das ist nicht besonders schlau, aber dafür effektiv.

Google setzt zum Beispiel Bots ein –  sogenannte Crawler –, die das Netz nach bestimmten Schlagworten und Merkmalen durchsuchen. Marketingagenturen nutzen Chat-Bots, um Kundenanfragen automatisiert zu bearbeiten. Sogar im Gesundheitswesen werden Chat-Bots eingesetzt, um Patienten zu mehr Therapietreue zu motivieren. Bots sind also an sich weder „gut“ noch „böse“. Sie erfüllen einfach einen ganz bestimmten Zweck.

In den sozialen Netzwerken werden Bots vor allem da aktiv, wo Nutzerprofile anonym erstellt werden können. Paradebeispiel dafür ist das soziale Netzwerk Twitter. Tausende falsche Nutzerprofile können mit einem Bot-Code erstellt und miteinander vernetzt werden. So entstehen sogenannte ,Botnets’, Botnetze. Die falschen Twitterer haben natürlich alle einen eigenen Namen, eigene Profilbilder (vorbei die Zeit der Twitter-Eier, an denen man verdächtige Nutzer früher mal erkennen konnte) und oft auch eine eigene Bio, also Profilbeschreibung. Sie sind Fake People, sogenannte Social Bots. Botnetze vernetzen unter Umständen Tausende von Social Bots miteinander. Das heißt, die Fake People folgen einander, können aufeinander reagieren, sich „unterhalten“, haben echte Follower. Damit wirken sie schnell wie echte Nutzer, denn sie verhalten sich genauso.

Was machen Bots in sozialen Medien?

Um Bots bei Twitter erkennen zu können, muss man zuerst verstehen, welche Funktionen sie erfüllen, was also ihr Zweck ist. Der Zweck hängt natürlich davon ab, wer Social Bots programmiert und einsetzt. Bots können für politische Meinungsmanipulation genutzt werden. Seit dem EU-Referendum in Großbritannien und der Wahl zum US-amerikanischen Präsidenten ist klargeworden, mit welcher Wucht sie in die öffentliche Diskussion eingreifen können. Dass sie dazu in der Lage waren, lag aber auch daran, dass diese Art Botnetz zuvor noch nicht genügend bekannt war und die Mechanismen, mit denen sie arbeiten, weiterhin erforscht werden müssen. Man ist also gerade erst dabei, zu verstehen, wie die Manipulation durch Bots in sozialen Netzwerken genau funktioniert.

Schaut man sich die Aktivität eines Social Bots an, so stellt man fest, dass er in der Regel monothematisch unterwegs ist. Logisch, denn er ist auf bestimmte Signale programmiert. Einfache Bots reagieren zum Beispiel auf bestimmte Hashtags und verbreiten unter diesen Stichworten ihre programmierten Botschaften. Sie sorgen so dafür, dass Themen, über die nur wenig bis mäßig stark gesprochen wird, künstlich befördert werden. Das wird auch als Astroturfing bezeichnet. Astroturfing wird gerne bei solchen Themen betrieben, die starke Emotionen hervorrufen, siehe Fake News.

So passiert es, dass die Meinung einer politischen Gruppe scheinbar von sehr vielen Nutzern geteilt wird. Dass es sich dabei nicht um echte Menschen, sondern um Fake People handelt, spielt für die echten Nutzer, die sich davon angesprochen fühlen, keine allzu große Rolle. Wenn Menschen nämlich den Eindruck haben, dass viele einer Meinung sind, schließen sie sich dieser Meinung eher an, besonders dann, wenn sie einen emotionalen Bezug zu dieser Meinung haben. Ob die Fakten, auf die sich die Meinung gründet, stimmen oder nicht, spielt für sie dann keine entscheidende Rolle mehr. Wichtig ist, dass sich ein Gefühl der Gruppenzugehörigkeit einstellt.

Warum sind Bots in sozialen Medien ein Problem?

Je mehr Bots unterwegs sind, desto schwieriger wird es, herauszufinden, welche Themen die echten Menschen bewegen. Eine Studie der Universität von Südkalifornien und der Universität von Indiana ergab, dass bis zu 15 Prozent der rund 319 Millionen Twitter-Nutzer – das sind circa 48 Millionen Userprofile – Bots sind. Das ist eine kritische Masse, mit der es möglich ist Diskurse, vor allem politische Diskurse, zu beeinflussen. Ein Botnetz aus 15.000 Profilen kann täglich 60.000 und mehr Nachrichten absetzen.

Beispiel für Meinungsmanipulation durch Bots mit Fake News

Der Journalist J.J. Patrick hat sich diesen Mechanismus anhand des EU-Referendums in Großbritannien einmal genauer angesehen und herausgefunden, dass eine Verschwörungstheorie, die vom Leave.EU-Kampagnenteam verbreitet wurde, ein Signalwort für Bots lieferte. Die Verschwörungstheorie ging so, dass die in den Wahlkabinen ausliegenden Stifte ausradierbar sein könnten, die Kreuze bei „EU verlassen“ also wegradiert werden könnten. Deshalb sollten Brexit-Befürworter ihre eigenen Stifte mitbringen. Das Ganze firmierte bei Twitter unter den Hashtags #TakeAPen, #UseAPen und #UsePens. Nachrichten mit diesen Hashtags wurden von Bots erstellt und retweetet, von echten Nutzern aufgegriffen, auch von denen, die der Verschwörungstheorie wiedersprachen.
Zu dem Zeitpunkt, als J.J. Patrick den Artikel schrieb, vermutete er, dass Botnetze aus russischen Botfarmen eingesetzt worden waren. Später erklärte einer der Kampagnenführer von Leave.EU, dass dies nicht stimme. Die Kampagne hätte circa 13.000 eigene Bots benutzt. Kurze Zeit später nahm er diese Aussage jedoch wieder zurück. Die britische Wahlbehörde untersucht diesen Fall inzwischen. Er steht übrigens in Verbindung mit dem Verdacht, dass Schwarzgeld zur Kampagnenfinanzierung eingesetzt wurde.

An diesem Beispiel kann man sehr gut sehen, wie weitreichend die Folgen sind, wenn Bots politische Botschaften verbreiten, mit dem Ziel Einfluss auf Wählerverhalten zu nehmen. Man kann davon ausgehen, dass Bots als Propagandainstrument eingesetzt werden. Und das ist ein Problem. Auch, weil es nicht einfach ist, Bots zu erkennen. Und das macht es unter anderem so schwer, sie abzustellen. Unmöglich, soziale Netzwerke von ihnen freizuhalten – zumindest, solange die Möglichkeit besteht, anonym Nutzerprofile anzulegen.

Das Internet-Forschungsinstitut der Universität Oxford hat sich im Rahmen des Computational Propaganda Project näher angesehen, was bei den Wahlen zum Deutschen Bundestag im September passierte. Vor der Bundestagswahl haben sich die großen politischen Parteien klar gegen die Nutzung von Bots ausgesprochen. Die Untersuchung des Oxforder Instituts findet tatsächlich nur wenige Hinweise darauf, dass automatisierte politische Propaganda ein ernstes Problem im deutschen Wahlkampf war. Nichtsdestotrotz sind circa 20 Prozent der politischen Inhalte in sozialen Netzwerken Falschnachrichten und Junk. Das ergibt sich aus den analysierten Nachrichten, die zwischen Dezember 2016 und Mai 2017 gesammelt wurden.

Allerdings zeigt die Analyse auch: Bots werden vor allem von rechten Parteien und Gruppierungen eingesetzt. Damit liegt Deutschland im internationalen Trend, selbst wenn die absoluten Zahlen der Botaktivität eher klein sind im Vergleich. Im rechten politischen Spektrum wird besonders häufig mit angstmachenden, hassschürenden und polarisierenden Falschmeldungen gearbeitet. Die Verbindung zwischen Meinungsrobotern und rechter Ideologie gefährdet demnach demokratische Strukturen. Deshalb denken die Justizminister einiger Bundesländer darüber nach, Bots zu verbieten. Dass das schwierig werden dürfte, versteht sich.

Wie man Bots erkennt und mit welcher Strategie man sie bekämpfen kann, dazu mehr im 2. Teil über Fake People (erscheint demnächst).

Auf den Punkt gebracht

Fake People sind falsche Userprofile, die wirken, als seien sie von echten Menschen erstellt. Eine Variante des falschen Userprofils ist das automatisierte Profil – der Social Bot, ein Meinungsroboter. Social Bots ahmen die Aktivität von echten Usern nach und sind nur schwer zu erkennen. Sie stellen mittlerweile eine kritische Masse der Userprofile in sozialen Medien und sind so in der Lage in Debatten einzugreifen und sie sogar zu lenken. Da Social Bots zur politischen Propaganda genutzt werden, stehen sie im Verdacht Wahlen beeinflussen zu können. Die Meinungsroboter werden deutlich mehr vom rechten politischen Spektrum eingesetzt als vom linken. Justizminister der Bundesländer denken darüber nach, Meinungsroboter zu verbieten.

Quellen:

https://de.wikipedia.org/wiki/Bot#Social_Bots:_Funktion_in_sozialen_Medien

https://de.wikipedia.org/wiki/Soziale_Gruppe

https://de.wikipedia.org/wiki/Astroturfing

http://ieeexplore.ieee.org/abstract/document/7490315/

http://comprop.oii.ox.ac.uk/wp-content/uploads/sites/89/2017/06/Casestudies-ExecutiveSummary.pdf

http://comprop.oii.ox.ac.uk/wp-

content/uploads/sites/89/2017/09/ComProp_GermanElections_Sep2017v5.pdf

https://www.byline.com/column/67/article/1906

http://www.theneweuropean.co.uk/top-stories/mike-hind-battling-the-bots-in-the-war-of-the-web-1-5168148

https://www.nytimes.com/2017/11/01/magazine/not-the-bots-we-were-looking-for.html?smid=tw-share

https://www.wired.de/collection/tech/welche-social-bots-gibt-es-und-wie-funktionieren-sie

https://www.nzz.ch/feuilleton/digitale-demokratie-die-wahrheit-bleibt-auf-der-strecke-ld.131319

Print this pageEmail to someoneShare on FacebookTweet about this on TwitterGoogle+

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.