Zum Inhalt springen

Soziale Medien Angriff der Meinungs-Roboter

Gefährden Troll-Armeen und Social Bots die Demokratie? Die Forschung hat dafür kaum Beweise.

Social Bots sind sogenannte Fake-Accounts in Sozialen Netzwerken, die vorgeben, echte Menschen zu sein. Mit geringem technischen Aufwand lassen sich solche Konten zu einer ganzen Bot-Armee zusammenschliessen – ohne dass nach aussen sichtbar ist, wer diese Armee im Hintergrund steuert.

So ein Bot-Netzwerk kann benutzt werden, um automatisiert und massenhaft bestimmte Nachrichten in Sozialen Medien zu verbreiten. Es wird geschätzt, dass gut 15 Prozent der Nutzer, die sich auf Twitter an den Debatten zur letzten US-Präsidentschaftswahl beteiligten, eigentlich Bots waren. Entsprechend aufgeschreckt berichteten die Medien. Für sie schien klar: Social Bots sind eine ernst zu nehmende Bedrohung für die Demokratie.

Die Antworten, die die Wissenschaft derzeit liefern kann, sind mit grosser Unsicherheit behaftet.
Autor: Simon Hegelich Professor für Political Data Science an der Technischen Universität München

Doch die Forschung ist sich über den tatsächlichen Einfluss keineswegs sicher. Der Politikwissenschaftler Simon Hegelich kommt in seiner eben erschienenen Studie «Social Media im Wahlkampf» zum Schluss: «Die Antworten, die die Wissenschaft derzeit liefern kann, sind meiner Meinung nach selbst mit grosser Unsicherheit behaftet.»

Ein erstes – grundlegendes – Problem: Was ein Bot ist und was ein Mensch, lässt sich in vielen Fällen kaum unterscheiden. Das sagt der deutsche Informatiker und Datenjournalist Michael Kreil, der sich intensiv mit der Problematik beschäftigt hat: «Es ist relativ schwierig einen Account zu finden, der mich davon überzeugt, dass er ein Social Bot ist. Ich kann in jeden Account auch irgendwie hineininterpretieren, dass es ein Mensch ist – das ist nicht trennscharf.»

Ich habe keine Anzeichen dafür gefunden, dass tatsächlich künstliche Intelligenzen in den Sozialen Netzwerken unterwegs sind und es schaffen, uns von anderen politischen Konzepten zu überzeugen.
Autor: Michael Kreil Informatiker und Datenjournalist

Kreil hat die zwölf Accounts angeschaut, die sich am Tag der US-Wahlen 2016 bei Twitter besonders oft zu Wort gemeldet haben – und nach gängigen Definitionsregeln als Social Bots gelten. Dabei hat er festgestellt: Hinter neun dieser zwölf Konten steckten eigentlich Menschen. Er hält fest: «Ich habe keine Anzeichen dafür gefunden, dass tatsächlich künstliche Intelligenzen in den Sozialen Netzwerken unterwegs sind und es schaffen, uns von anderen politischen Konzepten zu überzeugen.»

Audio
Interview mit Michael Kreil
aus Audio Aktuell SRF 3 vom 22.03.2018. Bild: exposingtheinvisible.org
abspielen. Laufzeit 21 Minuten 29 Sekunden.

Aber was ist, wenn man die Definition nicht so streng ansetzt? Wenn man unter Social Bots nicht nur künstliche Intelligenzen versteht, sondern auch die Konten, die nur zeitweise von einer Maschine gesteuert werden – ansonsten aber von echten Menschen?

Solche Mischformen kommen auch in der Schweiz in Sozialen Netzwerken zum Einsatz. Das weiss der Kommunikationsforscher Stefan Gürtler von der Fachhochschule Nordwestschweiz. Er hat die Twitter-Diskussion vor der No-Billag-Abstimmung untersucht: «Bei diesen halbautomatisierten Accounts ist klar erkennbar, dass da ein Mensch die Regie führt. Er wird aber durch technische Hilfsmittel unterstützt und kann damit sehr schnell auf Nachrichten in den Sozialen Medien reagieren und selber sehr viel mehr Nachrichten schreiben, als ein Mensch alleine dazu in der Lage wäre.» Einzelne Twitter-Benutzer konnten dank maschineller Unterstützung so bis zu 1000 Nachrichten pro Tag zum Thema No Billag absetzen.

Audio
Gefährdet das Internet die Demokratie?
aus Echo der Zeit vom 22.03.2018. Bild: Keyston
abspielen. Laufzeit 6 Minuten 56 Sekunden.

Allerdings: Die reine Menge an Tweets sagt noch nichts über deren Wirkung aus. Denn um die zu entfalten, müssen die Nachrichten auch gelesen werden. Und das ist bei Social Bots oft nicht der Fall, weiss Michael Kreil: «Die Bots sind meistens in kleine Gruppen organisiert, denen niemand folgt. Das sind zwar eng verbundene Netzwerke in den Sozialen Medien, aber sie sind abgespalten von der Gesellschaft.»

Und selbst wenn die Nachrichten der Social Bots gelesen werden – eine unmittelbare Beeinflussung scheint unwahrscheinlich. Der Politikwissenschaftler Simon Hegelich formuliert es in seiner Studie «Social Media im Wahlkampf» so: «Sicherlich wird niemand seine politische Überzeugung plötzlich ändern, nur weil man auf einer Social Media Seite eine Nachricht angezeigt bekommt.»

Nutzer mit einem geringeren Kommunikations-Volumen können von halbautomatisierten Konten an den Rand gedrängt werden.
Autor: Stefan Gürtler Dozent für Kommunikationswissenschaft an der Fachhochschule Nordwestschweiz

Trotz allem: Eine gewisse Wirkung können Social Bots als Propagandamittel wohl trotzdem entfalten. In Ihrer Masse können die Nachrichten der Bots nämlich bestimmten Themen zu mehr Sichtbarkeit verhelfen – und andere verdrängen. Das hat Stefan Gürtler bei der No-Billag-Abstimmung festgestellt: «Nutzer mit einem geringeren Kommunikations-Volumen werden so an den Rand gedrängt. Und das ist die Art von Manipulation, die wir in unserer Untersuchung feststellen konnten.» Und auf diese Art können Social Bots tatsächlich Meinungen beeinflussen, glaubt auch der Soziologe Dirk Helbing, der an der ETH-Zürich Computational Social Science lehrt: «Menschen orientieren sich an dem, was sie in ihrer Umwelt wahrnehmen. Das heisst: Die Meinung, die sie in ihrer Umwelt wahrnehmen, beeinflusst letzten Endes auch ihre eigene Meinung.»

Social Bots können vortäuschen, dass bestimmte Minderheiten-Meinungen angeblich Mehrheits-Meinungen seien.
Autor: Dirk Helbing Professor für Computational Social Science an der ETH Zürich

Und, muss man ergänzen: Nicht nur die Meinung der Nutzer in den Sozialen Medien kann so beeinflusst werden, sondern die der ganzen Bevölkerung. Weil sich die Medien nämlich immer mehr an den Themen orientieren, die ihnen die Sozialen Medien vorgeben. Und damit selbst anfällig werden für Manipulationen: «Es wird hier vermittelt, dass bestimmte Minderheiten-Meinungen eigentlich Mehrheits-Meinungen seien. Und umgekehrt kann es auch sein, dass bestimmte Interessen dafür sorgen, dass Mehrheits-Meinungen nicht als solche wahrgenommen werden», sagt Dirk Helbing.

Allerdings: Auch über das Ausmass dieses Effekts ist sich die Forschung nicht einig.

Jederzeit top informiert!
Erhalten Sie alle News-Highlights direkt per Browser-Push und bleiben Sie immer auf dem Laufenden.
Schliessen

Jederzeit top informiert!

Erhalten Sie alle News-Highlights direkt per Browser-Push und bleiben Sie immer auf dem Laufenden. Mehr

Push-Benachrichtigungen sind kurze Hinweise auf Ihrem Bildschirm mit den wichtigsten Nachrichten - unabhängig davon, ob srf.ch gerade geöffnet ist oder nicht. Klicken Sie auf einen der Hinweise, so gelangen Sie zum entsprechenden Artikel. Sie können diese Mitteilungen jederzeit wieder deaktivieren. Weniger

Sie haben diesen Hinweis zur Aktivierung von Browser-Push-Mitteilungen bereits mehrfach ausgeblendet. Wollen Sie diesen Hinweis permanent ausblenden oder in einigen Wochen nochmals daran erinnert werden?

Meistgelesene Artikel