Twitter

Social Bots verhalten sich wie echte User

   Artikel anhören
© zVg.
Social Bots, sind in der Direktkommunikation mit Usern nicht von Menschen zu unterscheiden. Dies zeigt eine aktuelle Studie der Wirtschaftsuniversität Wien.
Politische Stimmungsmache und Desinformation im Netz sind heute keine Seltenheit - insbesondere vor Wahlen oder anderen politischen Ereignissen. Automatisierten Software-Programme – Social Bots - simulieren in sozialen Netzwerken menschliche Verhaltensmuster und tauchen teilweise als „Fake-Account“ auf. Dass sie dies richtig gut tun, zeigt eine aktuelle Studie von Ema Kušen und Mark Strembeck vom Institut für Wirtschaftsinformatik und Neue Medien der WU. Die Untersuchung zeigt anhand von 4,4 Millionen Tweets, wie Social Bots die Stimmung im Netz beeinflussen und wie sie ihr Verhalten bei der Direktkommunikation mit anderen UserInnen ändern. Die Ergebnisse:


Menschliche Benutzer folgen in ihren Tweets generell eher der Grundstimmung einer Diskussion folgen, während Social Bots versuchen die Stimmung durch entgegengesetzte Emotionen umzukehren. Die Wissenschaftler zeigen dies anhand eines Beispiels: Zum positiven Ereignis Thanksgiving Day twittert ein Social Bot: „Sissy Mitt Romney signed Massachusetts gun ban #thanksgiving #Trump #MAGA“.

Bei kontrovers diskutierten Ereignissen (wie zum Beispiel Wahlen) verschicken Social Bots insbesondere emotional polarisierende Nachrichten und versuchen so, die öffentliche Meinung zu beeinflussen. Im Kontext der US-Präsidentschaftswahl geschah das etwas folgendermaßen: „ObamaFail I’ll be so happy to see this joke move out of the White House!! #VoteTrumpPence16!“


Dabei wurde deutlich, dass Social Bots zu diesem Zweck sogar polarisierende Nachrichten in thematisch fremde Diskussionen einstreuen. In der Direktkommunikation mit menschlichen Benutzern ändert sich dieses Verhalten jedoch: Richten Social Bots ihre Nachrichten direkt an Twitter-Benutzern (mit der Adressierung @TwitterUser), passen sie sich ebenfalls der allgemeinen Grundstimmung an. Strembeck erklärt: „Social Bots sind in der Direktkommunikation anhand der Emotionen, die sie versenden, nicht mehr von Menschen zu unterscheiden.“

Strembeck und Kusen konnten bei ihrer Analyse auch eine Reihe an statistisch signifikanten Mustern, sogenannten „Emotion Exchange motifs“, die typisch für die Direktkommunikation mit menschlichen Usern sind, identifizieren. Die neuen Muster für acht verschiedene Emotionen stellen einen wichtigen Schritt in der Forschung dar. „Anlässlich der aktuellen EU-Wahl gab es zum Beispiel Warnungen, dass verschiedene Interessensgruppen versuchen könnten, in sozialen Netzwerken die Wahl zu beeinflussen. Die Ergebnisse können unter anderem dazu beitragen, Social Bots in Zukunft zuverlässiger zu identifizieren. In verschiedenen Folgestudien wird nun die Frage zu klären sein, warum sich das Verhalten von Social Bots beim Versand von Broadcast-Nachrichten vom Verhalten bei einer Direktkommunikation unterscheidet“, erklärt Studienautor Strembeck.
stats