Oliver Nermerich, OSK

Oliver Nermerich, OSK

Bots statt Reporter? Wie künstliche Intelligenz den Journalismus verändert

Mittwoch, 05. April 2017
Die Sorge, dass Journalisten durch intelligente Bot-Systeme ersetzt werden könnten, scheint weit verbreitet. Schon heute kommen sie zum Einsatz und verhelfen Verlagen zu mehr Reichweite. Oliver Nermerich, Social Media- und Digitalstratege bei der PR-Agentur Oliver Schrott Kommunikation, mit einem Beitrag zum Status Quo künstlicher Intelligenz im journalistischen Einsatz.

Der Datenchef der "Washington Post" Shailesh Prakash, 46, stellte kürzlich einige seiner KI-Tools vor, die er mit seinen 200 (!) Programmierern und Software-Ingenieuren in den vergangenen Jahren entwickelt hat. Dazu gehört beispielsweise "Heliograf", ein intelligenter Storytelling-Agent, der auf Basis von strukturierten Daten selbstständig Beiträge verfasst.  Anschließend veröffentlicht er verschiedene Versionen davon auf unterschiedlichen Plattformen – zum Beispiel auf Websites, Twitter, im Facebook-Messenger oder auf Amazon Echo, um nur einige zu nennen. Eine erste Version von Heliograf kam während der Olympischen Spiele in Rio de Janeiro zum Einsatz, eine ausgereiftere Version debütierte am US-Wahltag.

Das System arbeitet wie folgt: Echte Redakteure erstellen Vorlagen mit Textbausteinen, die für das Genre üblich sind. Das Programm verbindet diese Textbausteine mit Datenbanken wie beispielsweise Vote Smart, aus denen es die relevanten Daten extrahiert, daraus Texte zusammenbastelt und veröffentlicht. Ändern sich die Daten, aktualisiert Heliograf die Texte automatisch, und zwar schneller als jeder Mensch es je tun könnte. "Die Tools sollen unsere Arbeit lediglich effektiver und effizienter machen, jedoch keine Journalisten ersetzen", versichert Prakash. Stattdessen gebe man ihnen mehr Zeit für Geschichten, die intensive Recherchen und menschliche Instinkte erfordern.

Tools wie Heliograf sind experimentell, sie helfen den Redakteuren bei einfachen journalistischen Aufgaben. "Noch sind Maschinen weit davon entfernt, komplexe Geschichten eigenständig produzieren zu können, aber auch das wird irgendwann möglich sein", prognostiziert der Datenvisionär.
Künstliche Intelligenz
Bild: Fotolia / the_lightwriter

Mehr zum Thema

Studie Deutsche Verbraucher sind bei künstlicher Intelligenz eher skeptisch

Sein primäres Ziel bei der Washington Post sei es, Leserwachstum zu generieren, und dies sei derzeit nur mit Hilfe von Maschinen möglich. So können mehrere Heliografs beispielsweise auf unterschiedliche lokale Wahlaktionen programmiert werden und dadurch mehr und feinkörnigere Inhalte erstellen. In letzter Konsequenz sprechen sie auf diese Weise eine größere Anzahl lokaler Leser an und gewinnen diese. Insgesamt scheint die Rechnung für die "Washington Post" aufzugehen: Im Februar 2017 besuchten ca. 89,6 Millionen Besucher die Seite, nur CNN konnte laut Comscore mehr Leser in diesem Monat verzeichnen.

Nicht jeder sieht in den erweiterten technischen Möglichkeiten und KI-Systemen einen Vorteil für den Journalismus und seine Konsumenten. "Das größte Problem sind die Social Bots, vor allem dann, wenn sie in die Hände von Menschen geraten, die politischen Einfluss nehmen wollen", sagt die Digital-Strategin und Botswatch-Gründerin Tabea Wilke.

Social Bots sind Software-Roboter, die selbstständig innerhalb von sozialen Netzwerken wie Twitter, Facebook oder Youtube handeln. Dort veröffentlichen sie vorprogrammierte Botschaften, wenn bestimmte Schlagworte auftreten. Inzwischen sind diese Programme sogar in der Lage, auf Basis der riesigen im Netz auffindbaren Datenmengen eigenständig neue Sätze zu kompilieren, sinngemäß Dialoge zu führen und dazuzulernen. Absichtlich eingebaute Tippfehler und nächtliche Ruhephasen lassen die Bots menschlicher wirken.
Mobile World Congress
Bild: GSMA

Mehr zum Thema

Mobile World Congress Warum Künstliche Intelligenz in Barcelona ihren großen Auftritt hat

Für den Nutzer ist nicht mehr ersichtlich, ob ein Meinungsroboter oder ein echter Mensch den Beitrag verfasst hat. Wilke warnt: "Social Bots können Themen und Meinungen nach vorne bringen, die ohne sie gar nicht sichtbar wären. Damit können sie viel erfolgreicher als einzelne Menschen auf Diskussionen Einfluss nehmen und Themen steuern. Vor allem in Zeiten unklarer Nachrichtenlagen sind Social Bots, die automatisiert Falschmeldungen verbreiten können, besonders aktiv. Die Gefahr dabei ist, dass seriöse Medien die Falschmeldungen der Social Bots schnell aufgreifen und weiter verbreiten." In letzter Konsequenz beeinflussen die Meldungen den Leser, der die massenhaft vebreiteten Äußerungen als öffentliche Mehrheitsmeinung verstehen könnte.

Kurz nach Ende des TV-Duells zwischen Hillary Clinton und Donald Trump beispielsweise flutete der Hashtag #trumpwon massenhaft die Newsstreams der sozialen Netzwerke, obwohl sich die US-Meinungsforscher über einen TV-Sieg Clintons einig waren. Später deckte eine Unterschung der Universität Oxford auf, dass jeder dritte zugunsten von Trump versendete Tweet computergesteuert war. Ob diese technologischen Tricks die Menschen in ihrer Meinungsbildung und bei Wahlen steuern, ist bislang nicht empirisch nachgewiesen. Fakt aber ist: Social Bots verzerren massiv die Diskussionen, die Themenagenda und somit auch die Wahrnehmungen in den sozialen Netzwerken.

Die Debatte um die Gefahren und den Nutzen solcher Technologien – sowohl im journalistischen Kontext als auch nichtjournalistischen allgemein – hat gerade erst begonnen. Klar ist, dass insbesondere die sozialen Netzwerke sowie die immer besseren KI-Systeme die Verbreitung von Fake News begünstigen. Noch nie zuvor war es so einfach, Falschmeldungen zu publizieren und zu streuen. "Das Netz ist voll davon", sagt Prakash. Der Datenchef weiß, dass die Technik, wenn sie in falsche Hände gerät, großen Schaden anrichten kann.

Als Gegenmittel zu Falschmeldungen, vertraue er auf die uralten Tugenden des Journalismus: akkurate Recherche sowie die wahrheitsgemäße und objektive Berichterstattung, gerne auch mit Hilfe von Maschinen. Halte man sich daran, kämen die Leser von alleine. Auch Eric Lipton, Investigativjournalist bei der "New York Times", macht deutlich, wie wichtig es sei, seine Funktion als Journalist gut zu machen und besonders in diesen Zeiten härter als sonst zu arbeiten. Es gehe darum, jede Meldung, auch Tweets, zu hinterfragen und auf ihren Wahrheitsgehalt hin zu überprüfen. Selbst wenn es noch so schwer sei, man dürfe den Fake-News-Produzenten nicht die Bühne alleine überlassen.

Die harte Arbeit macht sich bezahlt: Bei der "New York Times" schießen die Abonnentenzahlen seit mehreren Monaten in die Höhe. Mittlerweile haben drei Millionen Leser die Traditionspublikation on- und offline abonniert – mit der Folge, dass Lipton weitere Reporter einstellen kann.

Ob das langfristig im Kampf gegen Falschmeldungen ausreicht, vor allem, wenn Nichtjournalisten weiterhin technisch aufrüsten? Wohl eher nicht. Sinnvoller wären vielleicht automatisierte KI-Applikationen wie ebenjene, die Shailesh Prakashs Team bei der "Washington Post" entwickelt. Diese könnten Falschnachrichten im Netz detektieren, die korrekten Fakten zusammensuchen und diese den Lesern – in welcher Form auch immer – schnell zur Verfügung stellen.

Bill Adair von PolitiFact zum Beispiel sieht genau hierin eine große Chance von KI. Er arbeitet derzeit an einem Softwareprogramm, welches mittels eines Smartphones Gespräche aufzeichnen und die Aussagen sofort live – unter Bezugnahme auf angeschlossene Datenbanken – überprüfen kann. Bis die Software einsatzfähig sei, würden allerdings noch ein bis zwei Jahre vergehen, erklärt der Politikjournalist.

Künstliche Intelligenz ist für den Journalismus ein Frenemy, dass heißt Freund und Feind zugleich. Redaktionen wie die "Washington Post" zeigen die Vorteile der Technik und demonstrieren, wie mithilfe künstlich-intelligenter Tools journalistische Produkte korrekter, schneller und personalisierter erstellt werden können. 700 Journalisten arbeiten bei der "Washington Post", daran soll sich auch durch den Einsatz von immer besseren Softwarelösungen nichts ändern. Stattdessen sollen die Journalisten mehr Zeit in Geschichten investieren können, die intensive Recherchen erfordern.

Ob das für alle Medienhäuser gilt, bleibt abzuwarten. Die betriebswirtschaftlich motivierte Versuchung scheint groß, mehr und mehr Redakteure durch Maschinen zu ersetzen. Doch genau hier lauert die nächste Gefahr: Softwarelösungen wie Heliograf greifen (bislang) ausschließlich auf digitale Daten und Spuren zurück. Das mag bei einigen Geschichten (z.B. Aktienberichte) ausreichen, bei anderen (z.B. Steuerbetrug) allerdings nicht. Das Leben findet nun mal hauptsächlich draußen in der realen Welt statt und eben nur zum Teil im Digitalen, zumindest bislang.

Um ein vollständiges Bild der Geschichte zu erhalten, sollte die Recherchequelle immer primär die reale Person und erst in zweiter Instanz ihre digitale Präsenz sein. Die große Kunst besteht also darin, den Maschinen und digitalen Daten nicht ausnahmslos zu vertrauen. Übernehmen Roboter immer mehr journalistische Aufgaben, verlernen echte Redakteure auf Dauer das journalistische Handwerkszeug. Dann wäre davon auszugehen, dass Textmerkmale wie Überraschung, Witz und Kreativität verloren gingen.

Geraten zudem künstliche Intelligenzen in die Hände von Personen, die politischen Einfluss nehmen wollen, werden sie schnell zu Feinden des Journalismus. Der Mißbrauch von Social Bots im Rahmen des US-Wahlkampfs hat dies deutlich gemacht. Doch je mehr "böse" Bots zur Verbreitung von Fake News im Einsatz sind, desto größer wird die Not, auch auf Journalistenseite Systeme zu installieren, die Falschmeldungen entlarven und bereinigen. Denn eins steht fest: Mehr Feinde erfordern mehr Freunde.

Meist gelesen
Ich habe die Datenschutzbestimmungen zur Kenntnis genommen und akzeptiere diese.
stats