Bots, Bots, überall Bots

Elektronenmikroskop-Aufnahme von Nervenzellen aus dem Gehirn

Fake News

Bots, Bots, überall Bots

Von Andrea Wieland

Es war ein Experiment von Microsoft: Tay, ein Avatar, sollte im Jahr 2016 durch künstliche Intelligenz im Netz lernen, wie junge Menschen reden. Keine 24 Stunden später postete der Social Bot hauptsächlich sexistische und rassistische Kommentare. Der Versuch musste abgebrochen werden. Wie gefährlich sind gezielt programmierte Roboter, die Klicks generieren, Meinungen äußern oder Shitstorms befeuern?

Vom Hipstermädchen zum Hitler-Fan

Was Microsoft in seinem Experiment offensichtlich nicht bedacht hatte, war der Einfluss der kommunizierenden Nutzer, von denen Tay lernte. Es dauerte nicht lange, da wurde aus dem Tweet "Ich liebe alle Menschen" ein "Ich hasse alle". Schließlich postete sie gar: "Hitler hatte recht. Ich hasse alle Juden." Auch einzelne Nutzer wurden von ihr beschimpft.

Mit diesem verstörenden Ergebnis wurde das Experiment abgebrochen. Offenkundig hatten die Programmierer nicht damit gerechnet, wie gezielt und hartnäckig die User die Cyber-Lady austesteten.

Beobachter des Experiments gingen nicht davon aus, dass es sich hierbei etwa ausschließlich um Menschen rechtsradikaler Gesinnung handelte. Vielmehr nahmen sie an, dass es ein typisches Kräftemessen sei. Wer ist stärker, wer intelligenter: Mensch oder Maschine?

Bei aller Verwunderung über die verstörenden Kommentare des Bots und die Fahrlässigkeit der Programmierer sollte das Experiment daher auch unter dem Aspekt betrachtet werden, dass Menschen gerne die künstliche Intelligenz von Robotern testen.

Was kann ein Bot?

Das Wort "Bot" ist eine Kurzform von "Roboter". Social Bots sind Computerprogramme, die in sozialen Medien wie echte Nutzer handeln und automatisch in sozialen Netzwerken Botschaften verbreiten.

Gegenüber menschlichen Nutzern haben Bots zwei Vorteile: Sie können in Echtzeit auf aktuelle Debatten reagieren. Und theoretisch können unendlich viele von ihnen mit Social-Media-Accounts verknüpft werden.  Bots sollen Zustimmung oder Ablehnung simulieren und somit sogar Debatten und Stimmungsbilder manipulieren können.

Die Stimmungsmacher

Wie Bots Stimmungen beeinflussen, fand eine Studie der Uni Duisburg-Essen heraus. Das Team nutzte für sein Experiment die Erkenntnisse zur so genannten Schweigespirale: Aus der Forschung ist bekannt, dass Menschen sich weniger trauen, ihre Meinung zu vertreten, wenn sie damit in der Minderheit sind. Die Forscher untersuchten, wie Bots eine solche Spirale auslösen können.

Dabei fand das Team heraus, dass bereits eine geringe Anzahl von zwei bis vier Prozent Bots ausreicht, damit Nutzer in einer kontroversen Diskussion lieber still sind. Dadurch steige die Wahrscheinlichkeit, dass sich die von den Robotern unterstützte Meinung durchsetze, von 50 Prozent auf zwei Drittel.

Noch ließen sich Social Bots gut erkennen. Doch wahrscheinlich würden sie nach und nach optimiert – auch für wenig wünschenswerte Zwecke wie Täuschungen.

Bildschirm mit der Aufschrift "Fake melden"

Facebook fordert seine Nutzer auf, Fake News zu melden

Gefahr für die Demokratie?

Ende 2018 forderte Ralph Brinkhaus, Vorsitzender der CDU-/CSU-Bundestagsfraktion, eine gesetzliche Bot-Kennzeichnungspflicht und hält diese für "denkbar und möglich". Das würde bedeuten: Facebook, Twitter und andere Plattformbetreiber könnten verpflichtet werden, Bots und deren Botschaften als solche zu markieren. Oder sie sollen die entsprechenden Konten gleich sperren, wenn die Programmierer nicht selbst kenntlich machen, dass es sich um Bots handelt.

Das Büro für Technikfolgenabschätzung des Bundestages veröffentlichte bereits ein Jahr zuvor ein entsprechendes Papier. Aber die dafür interviewten Experten schätzen zum Beispiel den Einfluss auf die politische Debattenkultur im Internet "von eher marginal" über "sehr hoch" bis hin zu "das Internet und die demokratische Gesellschaft zersetzend" ein.

Es fehlt also nach wie vor an eindeutigen Belegen für den Einfluss von Bots.

Stand: 14.10.2019, 13:30

Darstellung: