Companion-Chefs Bachem und Heine

„Digitale Kommunikation findet im Umfeld technischer Kriegsführung statt“

Christian Bachem (re.) und Michael Heine
© Companion
Christian Bachem (re.) und Michael Heine
Wie massiv beeinflussen Maschinen Diskussionen auf Twitter? Sehr massiv. Eine Stichprobe der Strategieberatung Companion deckt auf: 35 Prozent aller Accounts zu #TeslaCrash sind Bots, bei #TTIP sind es 20 Prozent. Die beiden Companion-Geschäftsführer Christian Bachem und Michael Heine sagen: „Die Ergebnisse legen nahe, dass die vermeintlich exakten Daten zu Reichweite, Verlauf und Buzz auf Twitter durch vorgetäuschte Kommunikation massiv aufgebläht sind. Diese durch Maschinen erzeugte Inflation scheint umso höher, je stärker US-amerikanische Profile an Diskussionen auf Twitter beteiligt sind.“ Fazit: „Nach der Invasion von Bots bei E-Mail (Spam) und in der Online-Werbung (Fraud) hat die systematische maschinelle Täuschung nun auch Social Media erreicht.“

Spam, Frauds, Fake-Accounts, Adblocker: Man muss wohl damit leben, dass „digitale Kommunikation im Umfeld technischer Kriegsführung stattfindet.“ Bachem und Heinen sprechen von einem „technischen Wettrüsten und dem systematischen Missbrauch von Online-Plattformen“. Das klingt hart, ist aber wohl nicht übertrieben. Das Internet ist nicht der herrschaftsfreie Raum, von dem alle mal geträumt haben, sondern längst Schlachtfeld unterschiedlicher Interessengruppen. Das hat auch Einfluss auf die Werbeindustrie: Die scheinbar so objektiven digitalen Leistungskennziffern für digitale Werbung sind zum Teil massiv manipuliert. Willkommen in der Matrix.



HORIZONT Online sprach mit Christian Bachem und Michael Heine.

"Journalisten sollten den Buzz in ihren Social-Media-Echokammern nicht mit der Realität verwechseln"

Herr Bachem, Herr Heine, 35 Prozent aller Retweets zu #TeslaCrash stammen von Bots, bei #TTIP sind es 20 Prozent. Das sind unglaubliche Zahlen. Waren Sie selbst überrascht? 
Heine: Nein. Überraschend ist nur, wie einfach man das ermitteln kann. Als Bot werden alle Twitter-Accounts eingestuft, deren Profilinformationen explizite Hinweise auf Maschinenaktivität liefern und die gleichzeitig über 30 Tage mehr als 30 Tweets täglich absetzen. Das Potenzial, via Twitter mit Menschen gesellschaftliche Diskussionen zu führen, ist in Wahrheit viel kleiner als gedacht.

Was schockiert, ist Ihre Aussage, dass im Markt keine Software-Werkzeuge verfügbar sind, die Bots verlässlich erkennen und ihren Einfluss in der Bewertung von Social-Media-Kommunikation eliminieren.

Heine: Auch das schockiert uns nicht. Wir kennen diese Mechanismen ja längst aus anderen Bereichen - denken Sie nur an Spam-E-Mails und Adblocker. Digitale Kommunikation findet statt im Umfeld technischer Kriegsführung. Wir sehen im Digitalen überall ein technisches Wettrüsten und den systematischen Missbrauch von Online-Plattformen.



Die ernüchternde Diagnose lautet: Das Problem ist nicht lösbar, Fake-Traffic ist ein integraler Bestandteil der digitalen Welt. Und jetzt, was kann man vor diesem Hintergrund den Werbungtreibenden raten? 
Bachem:
Wir raten den Unternehmen, Social-Media-Daten nie isoliert und immer gemeinsam mit Daten aus anderen Medienkanälen zu betrachten. Die Ergebnisse digitaler Kommunikation müssen immer wieder aufs Neue auf ihre Plausibilität überprüft werden - und zwar von Menschen, nicht von Maschinen. Tatsache ist: Nach der Invasion von Bots bei E-Mail und Online-Werbung hat der systematische maschinelle Betrug auch Social Media erreicht.

Wenn Bots so massiv Einfluss auf die Meinungsbildung nehmen, stellt sich die Frage, inwieweit Unternehmen dieses Spiel mitspielen sollten. 
Bachem:
Man kann als Werbungtreibender natürlich sagen: Wir sehen dieses Problem und wissen, dass es nicht verschwinden wird - also beteiligen wir uns daran und programmieren selber Bots. Inwieweit das richtig und sinnvoll ist, muss jedes Unternehmen für sich selbst beantworten. Wir empfehlen unseren Kunden eine solche Strategie jedenfalls nicht.

Das wäre die nächste Eskalationsstufe: Werbungtreibende schicken Bots gegen Bots ins Gefecht.
Heine:
Wir reden hier ja speziell über Twitter. Das ist schon etwas anderes als Reichweiten-Betrug im Umfeld digitaler Werbung. Bei Twitter sprechen wir eher von Resonanz-Betrug. Da geht es nicht darum, Anzeigengelder zu veruntreuen, sondern die öffentliche Meinung zu beeinflussen. Die Twitter-Gemeinde ist in Deutschland ja viel kleiner als die 12 Millionen User, die offiziell genannt werden. De facto haben Sie es hier vornehmlich mit ein paar Hunderttausend Medienschaffenden zu tun, Twitter ist vor allem ein Medium für Journalisten. Das Problem ist: Die Bots erzeugen eine Schein-Resonanz, die dann aber die offizielle Berichterstattung beeinflusst. Journalisten sollten den Buzz in ihren Social-Media-Echokammern nicht mit der Realität verwechseln - genau das geschieht aber häufig.

In Ihrer Untersuchung geht es nur um Twitter - haben Sie eine Vorstellung davon, wie groß der sogenannte Resonanz-Betrug auf Facebook ist? 
Bachem:
Dazu haben wir keine konkreten Zahlen. Aber sicher gibt es diesen Mechanismus auch auf Facebook und anderen Plattformen.

Sie haben vor zweieinhalb Jahren mit einer Studie zu Facebook für gewaltig Aufsehen gesorgt. Eines der zentralen Ergebnisse war: Nur ein verschwindend kleiner Teil der User beteiligt sich regelmäßig an Dialogen mit Unternehmen. Hat sich an der Situation seitdem etwas verändert? 
Bachem:
Soweit wir sehen, hat sich daran nichts geändert, nur ein rudimentär kleiner Teil von sogenannten Fans interagiert dauerhaft positiv mit einer Marke. Aktuell arbeiten wir allerdings in diesem Bereich eher mit Medienmarken als mit klassischen Consumer-Brands zusammen. Das Erstaunliche ist, dass sich für Medien die Situation deutlich besser darstellt. Das gilt vor allem für große TV-Sender. Wenn wir deren Facebook-Auftritte für einzelne Sendungen analysieren, erkennen wir, dass hier all die Dinge noch existieren, die sonst weitgehend verschwunden sind: also organische Reichweite, hohe Interaktionsraten et cetera. Hier ist Social immer noch Social. Zumindest scheinbar. Tatsächlich finden die Dialoge auch hier in den vielzitierten Echokammern statt.

Interessieren sich die Menschen einfach mehr für Medieninhalte - oder wird das von Facebook bewusst gesteuert?
Bachem:
Beides. Facebook hat natürlich ein Interesse daran, Medieninhalte anders zu behandeln als Markeninhalte. Rein ökonomisch gesehen ist es für Facebook sinnvoll, die organische Reichweite von Marken-Content zu limitieren, damit die Unternehmen in Media investieren, also Reichweite kaufen. Der Content von Medien ist für Facebook dagegen ein wertvoller Teil ihres Angebots für die User. Daher scheint es für Facebook sinnvoll zu sein, die Verbreitung dieser Inhalte auf ihrer Plattform zu unterstützen.

Heine: Facebook handelt ökonomisch logisch, aber absolut willkürlich und kümmert sich nicht um die Folgen. Es ist höchste Zeit diese und andere Plattformen so zu regulieren, wie Telkos, Banken oder Verlage auch. Aber was geschieht? Man diskutiert, Herr Zuckerberg möge doch bitte „Fake News“ ermitteln, wie auch immer herausfiltern und zukünftig, ja was eigentlich ausliefern? „True News“ aus einem Wahrheitsministerium?

stats