Zum Inhalt springen

Der Feind in meinem Twitter

Stimmungsmache per Algorithmus: Socialbots schummeln sich in unsere Online-Diskussionen und virtuelle Freundeskreise, verhalten sich wie Menschen, sind aber vollautomatisch – und gefährlich.

Nie zuvor in der amerikanischen Geschichte wurden so viele Whistleblower unter Spionageverdacht gestellt wie unter Präsident Obama. Unter Ihnen Barrett Brown. Seit einem Jahr sitzt der Journalist in Untersuchungshaft. Offiziell weil er Links mit illegalem Inhalt weiterverteilt hat – inoffiziell weil er der Regierung unbequem wurde. Denn Brown hat über die Rolle der Regierung bei der Entwicklung einer „Persona Management“-Software berichtet. Diese sollte Militärs erlauben, eine Vielzahl von gefälschten Profilen in verschiedenen sozialen Netzwerken zentral zu steuern. Ziel der Übung: die Infiltrierung und Manipulation des Meinungsaustauschs im Netz.

Lutz Finger, Gründer und Direktor der Data-Mining-Firma Fisheye Analytics und Autor des Buches „Competing On Data„, ist sich dabei sicher, „dass neben den Vereinigten Staaten auch andere Länder solche Projekte verfolgen“.

Sogenannte Socialbots gehen nun noch einen Schritt weiter, denn sie trennen die Profile in sozialen Netzwerken endgültig von tatsächlichen Menschen. Bei Socialbots handelt es sich um Computerprogramme, die vollautomatisch funktionieren, aber sich dabei so menschenähnlich verhalten, dass sie weder von Spamfiltern noch von den meisten menschlichen Nutzern erkannt werden.

Beliebtestes Ziel für Socialbot-Attacken ist dabei Twitter. Die offene Struktur der Plattform ermöglicht einerseits einen wirklich globalen Dialog, andererseits ist diese offene Struktur sehr anfällig für die Beeinflussung von Bots. Wie viele soziale Bots es tatsächlich gibt lässt sich dabei schwer sagen, denn genau darin liegt das Problem: Sie sind so menschenähnlich, dass der Schwindel selten auffliegt.  

Wettkampf der Socialbot-Entwickler

In der Forschung sind jedoch mehrere sehr erfolgreiche Feldversuche belegt. Der akademische Ehrgeiz hat zu einem richtigen Wettkampf geführt: Seit 2011 gibt es die jährliche Social Bot Challenge (2011), bzw. Competition (2012). Als Sieger ging 2011 der Fake-Account @JamesMTitus hervor, der innerhalb von 14 Tagen immerhin knapp 200 menschliche Reaktionen für sein computergesteuertes Verhalten erntete und heute über 700 Follower zählt.

Accounts wie @JamesMTitus sind dabei durchaus kreative Leistungen. Sie haben einen authentisch klingenden Namen, ein ansprechendes Profilfoto und eine Biografie. In einigen Fällen gehen die Botmaster sogar so weit, ihren Kreationen eigene Blogs und Profile in anderen sozialen Netzwerken einzurichten. Selbst Hobbys und Schlafrhythmen fließen in die Programmierung mit ein.

Social Bots verhalten sich die meiste Zeit unauffällig. So twittern sie gelegentlich ihren einprogrammierten Interessen entsprechend und folgen vereinzelt anderen Nutzern. Über Wochen und Monate bauen sie somit einen gewisse Ruf auf und werden so für Twitters Spam-Erkennung unsichtbar, denn sie entsprechen in ihrem Verhalten den rund 40 Prozent der Twitter-Nutzer, die primär Inhalte konsumieren und sich ansonsten zurückhalten.

„Spätestens wenn dieser Punkt erreicht ist, können Social Bots subtil aber gezielt die Meinungsbildung auf Twitter beeinflussen“, sagt Lutz Finger. Sie können durch Tweets und Retweets Traffic auf bestimmte Inhalte lenken, Stimmung gegen oder für Politiker machen oder sogar aktiv die Netzwerkbildung fördern indem sie Brücken zwischen verschiedenen Accounts schlagen. Dies kann bereits dadurch gelingen, dass zwei Accounts einfach im selben Tweet genannt werden, wie eine aktuelle Studie belegt.

Die Bot-Entwickler können dabei nur gewinnen. Denn selbst wenn Twitter seine Algorithmen anpasst und immer besser wird bei der Erkennung von Bots: Genau daraus lernen sie, noch klügere Bots zu programmieren. Beide Seiten wenden dabei Machine-Learning-Verfahren an. Die Fehlersuche und Anpassung erfolgt automatisch. Es findet ein Wettrüsten statt, das die Bot-Entwickler anführen.

Börse in Aufruhr

Das Problem, das zum aktuellen Zeitpunkt noch etwas abstrakt klingt, wird in Zukunft rasch an Brisanz gewinnen, denn wo heute noch in vielen Fällen menschliche Intelligenz als Korrektiv dient, werden zunehmend Services auf Twitter aufsetzen, die aus der Datenanalyse automatisch Entscheidungen ableiten. Eine Vorahnung davon gab jüngst der Hack des Accounts der Nachrichtenagentur AP. Über den gehackten Account wurde ein Tweet veröffentlicht, der eine Explosion im Weißen Haus verkündete. Obwohl der Account kurz darauf deaktivert wurde, reagierten die Börsen sofort mit Kurseinbrüchen. Der Grund: Einige Trading-Algorithmen verarbeiten unter anderem auch Twitter-Daten und reagierten in Sekundenschnelle auf die Meldung.

Twitter ist eine Demokratie, in der jede Stimme grundsätzlich gleich zählt. Wächst der Einfluss von Bots auf Entscheidungsfindungsprozesse, wird die digitale Echtzeit-Öffentlichkeit quasi ferngesteuert. Eine einfache Lösung für dieses komplexe Problem gibt es nicht. Wachsende Sensibilität für die Qualität der Daten, die unser Denken und Handeln beeinflussen, wäre sicher ein Anfang. Die Entwicklung von Filter-Algorithmen, die diesen Umstand beherzigen, eine logische Konsequenz – und die Freilassung Barrett Browns dringend geboten.


Dieser Beitrag ist eine aktualisierte Version des Artikels „Ferngesteuerte Meinungsmache„, der im Mai bei „Zeit Online“ erschien.

Nach oben