Social Bots sind sogenannte Fake-Accounts in Sozialen Netzwerken, die vorgeben, echte Menschen zu sein. Mit geringem technischen Aufwand lassen sich solche Konten zu einer ganzen Bot-Armee zusammenschliessen – ohne dass nach aussen sichtbar ist, wer diese Armee im Hintergrund steuert.
So ein Bot-Netzwerk kann benutzt werden, um automatisiert und massenhaft bestimmte Nachrichten in Sozialen Medien zu verbreiten. Es wird geschätzt, dass gut 15 Prozent der Nutzer, die sich auf Twitter an den Debatten zur letzten US-Präsidentschaftswahl beteiligten, eigentlich Bots waren. Entsprechend aufgeschreckt berichteten die Medien. Für sie schien klar: Social Bots sind eine ernst zu nehmende Bedrohung für die Demokratie.
Die Antworten, die die Wissenschaft derzeit liefern kann, sind mit grosser Unsicherheit behaftet.
Doch die Forschung ist sich über den tatsächlichen Einfluss keineswegs sicher. Der Politikwissenschaftler Simon Hegelich kommt in seiner eben erschienenen Studie «Social Media im Wahlkampf» zum Schluss: «Die Antworten, die die Wissenschaft derzeit liefern kann, sind meiner Meinung nach selbst mit grosser Unsicherheit behaftet.»
Ein erstes – grundlegendes – Problem: Was ein Bot ist und was ein Mensch, lässt sich in vielen Fällen kaum unterscheiden. Das sagt der deutsche Informatiker und Datenjournalist Michael Kreil, der sich intensiv mit der Problematik beschäftigt hat: «Es ist relativ schwierig einen Account zu finden, der mich davon überzeugt, dass er ein Social Bot ist. Ich kann in jeden Account auch irgendwie hineininterpretieren, dass es ein Mensch ist – das ist nicht trennscharf.»
Ich habe keine Anzeichen dafür gefunden, dass tatsächlich künstliche Intelligenzen in den Sozialen Netzwerken unterwegs sind und es schaffen, uns von anderen politischen Konzepten zu überzeugen.
Kreil hat die zwölf Accounts angeschaut, die sich am Tag der US-Wahlen 2016 bei Twitter besonders oft zu Wort gemeldet haben – und nach gängigen Definitionsregeln als Social Bots gelten. Dabei hat er festgestellt: Hinter neun dieser zwölf Konten steckten eigentlich Menschen. Er hält fest: «Ich habe keine Anzeichen dafür gefunden, dass tatsächlich künstliche Intelligenzen in den Sozialen Netzwerken unterwegs sind und es schaffen, uns von anderen politischen Konzepten zu überzeugen.»
Aber was ist, wenn man die Definition nicht so streng ansetzt? Wenn man unter Social Bots nicht nur künstliche Intelligenzen versteht, sondern auch die Konten, die nur zeitweise von einer Maschine gesteuert werden – ansonsten aber von echten Menschen?
Solche Mischformen kommen auch in der Schweiz in Sozialen Netzwerken zum Einsatz. Das weiss der Kommunikationsforscher Stefan Gürtler von der Fachhochschule Nordwestschweiz. Er hat die Twitter-Diskussion vor der No-Billag-Abstimmung untersucht: «Bei diesen halbautomatisierten Accounts ist klar erkennbar, dass da ein Mensch die Regie führt. Er wird aber durch technische Hilfsmittel unterstützt und kann damit sehr schnell auf Nachrichten in den Sozialen Medien reagieren und selber sehr viel mehr Nachrichten schreiben, als ein Mensch alleine dazu in der Lage wäre.» Einzelne Twitter-Benutzer konnten dank maschineller Unterstützung so bis zu 1000 Nachrichten pro Tag zum Thema No Billag absetzen.
Allerdings: Die reine Menge an Tweets sagt noch nichts über deren Wirkung aus. Denn um die zu entfalten, müssen die Nachrichten auch gelesen werden. Und das ist bei Social Bots oft nicht der Fall, weiss Michael Kreil: «Die Bots sind meistens in kleine Gruppen organisiert, denen niemand folgt. Das sind zwar eng verbundene Netzwerke in den Sozialen Medien, aber sie sind abgespalten von der Gesellschaft.»
Und selbst wenn die Nachrichten der Social Bots gelesen werden – eine unmittelbare Beeinflussung scheint unwahrscheinlich. Der Politikwissenschaftler Simon Hegelich formuliert es in seiner Studie «Social Media im Wahlkampf» so: «Sicherlich wird niemand seine politische Überzeugung plötzlich ändern, nur weil man auf einer Social Media Seite eine Nachricht angezeigt bekommt.»
Nutzer mit einem geringeren Kommunikations-Volumen können von halbautomatisierten Konten an den Rand gedrängt werden.
Trotz allem: Eine gewisse Wirkung können Social Bots als Propagandamittel wohl trotzdem entfalten. In Ihrer Masse können die Nachrichten der Bots nämlich bestimmten Themen zu mehr Sichtbarkeit verhelfen – und andere verdrängen. Das hat Stefan Gürtler bei der No-Billag-Abstimmung festgestellt: «Nutzer mit einem geringeren Kommunikations-Volumen werden so an den Rand gedrängt. Und das ist die Art von Manipulation, die wir in unserer Untersuchung feststellen konnten.» Und auf diese Art können Social Bots tatsächlich Meinungen beeinflussen, glaubt auch der Soziologe Dirk Helbing, der an der ETH-Zürich Computational Social Science lehrt: «Menschen orientieren sich an dem, was sie in ihrer Umwelt wahrnehmen. Das heisst: Die Meinung, die sie in ihrer Umwelt wahrnehmen, beeinflusst letzten Endes auch ihre eigene Meinung.»
Social Bots können vortäuschen, dass bestimmte Minderheiten-Meinungen angeblich Mehrheits-Meinungen seien.
Und, muss man ergänzen: Nicht nur die Meinung der Nutzer in den Sozialen Medien kann so beeinflusst werden, sondern die der ganzen Bevölkerung. Weil sich die Medien nämlich immer mehr an den Themen orientieren, die ihnen die Sozialen Medien vorgeben. Und damit selbst anfällig werden für Manipulationen: «Es wird hier vermittelt, dass bestimmte Minderheiten-Meinungen eigentlich Mehrheits-Meinungen seien. Und umgekehrt kann es auch sein, dass bestimmte Interessen dafür sorgen, dass Mehrheits-Meinungen nicht als solche wahrgenommen werden», sagt Dirk Helbing.
Allerdings: Auch über das Ausmass dieses Effekts ist sich die Forschung nicht einig.