Twitter: Social Bots sind nicht mehr von Menschen zu unterscheiden

Bad News

Social Bots, automatisierte Software-Programme, die in sozialen Netzwerken menschliche Verhaltensmuster simulieren und teilweise als „Fake-Account“ auftauchen, sind in der Direktkommunikation mit UserInnen nicht von Menschen zu unterscheiden.

Dies zeigt eine aktuelle Studie von den WissenschaftlerInnen Ema Kušen und Mark Strembeck an der Wirtschaftsuniversität Wien. So können sie zum Beispiel für politische Stimmungsmache missbraucht werden und dabei leichter unerkannt bleiben.Die beiden WissenschaftlerInnen untersuchten anhand von 4,4 Millionen Tweets, wie Social Bots die Stimmung im Netz beeinflussen und wie sie ihr Verhalten bei der Direktkommunikation mit anderen UserInnen ändern.

Die Ergebnisse zeigen, dass menschliche BenutzerInnen in ihren Tweets generell eher der Grundstimmung einer Diskussion folgen, während Social Bots versuchen die Stimmung durch entgegengesetzte Emotionen umzukehren. (Beispiel: zum positiven Ereignis Thanksgiving Day twittert ein Social Bot: „Sissy Mitt Romney signed Massachusetts gun ban #thanksgiving #Trump #MAGA“) Bei kontrovers diskutierten Ereignissen (wie z.B. Wahlen) verschicken Social Bots insbesondere emotional polarisierende Nachrichten und versuchen so, die öffentliche Meinung zu beeinflussen. (Im Kontext der US-Präsidentschaftswahl zum Beispiel: “ObamaFail I’ll be so happy to see this joke move out of the White House!! #VoteTrumpPence16“) Dabei wurde deutlich, dass Social Bots zu diesem Zweck sogar polarisierende Nachrichten in thematisch fremde Diskussionen einstreuen. In der Direktkommunikation mit menschlichen BenutzerInnen ändert sich dieses Verhalten jedoch: Richten Social Bots ihre Nachrichten direkt an Twitter-BenutzerInnen (mit der Adressierung @TwitterUser), passen sie sich ebenfalls der allgemeinen Grundstimmung an. Strembeck erklärt: „Social Bots sind in der Direktkommunikation anhand der Emotionen, die sie versenden, nicht mehr von Menschen zu unterscheiden.“

Strembeck und Kusen konnten bei ihrer Analyse auch eine Reihe an statistisch signifikanten Mustern, sogenannten „Emotion Exchange motifs“, die typisch für die Direktkommunikation mit menschlichen UserInnen sind, identifizieren. Die neuen Muster für 8 verschiedene Emotionen stellen einen wichtigen Schritt in der Forschung dar. „Anlässlich der aktuellen EU-Wahl gab es zum Beispiel Warnungen, dass verschiedene Interessensgruppen versuchen könnten, in sozialen Netzwerken die Wahl zu beeinflussen. Die Ergebnisse können u.a. dazu beitragen, Social Bots in Zukunft zuverlässiger zu identifizieren. In verschiedenen Folgestudien wird nun die Frage zu klären sein, warum sich das Verhalten von Social Bots beim Versand von Broadcast-Nachrichten vom Verhalten bei einer Direktkommunikation unterscheidet“, so Studienautor Strembeck.

Zur vollständigen Studie