Algorithmen

Die programmierten Verführer

   Artikel anhören
© Pixabay
Unsere Entscheidungen werden immer mehr durch digitale Dienste und die dahinter liegenden Algorithmen beeinflusst. Wie muss die Marktforschung dem Rechnung tragen? Kann der Konsument noch frei entscheiden?
Ein Gespenst geht um in der Gesellschaft, eher eine ganze Armee von Gespenstern, unsichtbar und mächtig, Angst und Schrecken verbreitend, aber auch Faszination und Hoffnung auslösend. Die Gespenster heißen „Algorithmen“, geschaffen hat sie eine im Dunkeln wirkende Macht, „Künstliche Intelligenz“ genannt. Ihre Aufgabe ist es, uns auszuspionieren, zu klassifizieren und unsere Handlungen heimlich zu steuern. Oder uns schlauer zu machen und unser Leben zu vereinfachen. Oder alles zusammen.

Nun, diese Beschreibung von Algorithmen ist natürlich sehr simpel, unsachlich und übertrieben. Trotzdem trifft sie die Stimmung des Diskurses über die Macht der Algorithmen, wie er gerade in der Gesellschaft geführt wird. Die Debatte über Segen oder Fluch der Digitalisierung, so wichtig sie sein mag, wollen wir an dieser Stelle nicht ausbreiten. Die Frage, der wir uns widmen wollen, lautet: Wenn immer mehr Kaufentscheidungen von Algorithmen und Künstlicher Intelligenz beeinflusst werden, wer ist dann verantwortlich: Der Konsument oder die Programmierer? Was folgt daraus für die Marktforschung? Reicht es aus, Menschen zu erforschen, wenn diese nicht mehr Herr ihrer Entscheidungen sind?

Ein Algorithmus ist eigentlich nur eine Rechenregel, ein systematisches, oft schrittweises Vorgehen, wie ein Problem zu lösen ist. In der Marktforschung helfen Algorithmen zunehmend bei aufwendigen Routine-Aufgaben: Offene Antworten codieren, emotionale Gesichtsausdrücke analysieren, Muster in großen unstrukturierten Datensätzen finden. Automatisierte Verfahren, die heute unter dem Label „Künstliche Intelligenz“ zusammengefasst werden, helfen bei Aufgaben, bei denen Menschen alleine weniger gut zurechtkommen. Das liegt daran, dass meist die schiere Menge an Daten zu groß für eine nicht-automatisierte Analyse ist – Algorithmen und Künstliche Intelligenz (KI) machen solche Jobs schneller und zuverlässiger, manchmal sogar intelligenter. Doch verlassen wir nun die schöne neue Welt der Marketing-Technologie und nehmen die Konsumentinnen und Konsumenten in den Blick. Auch sie nutzen zunehmend Algorithmen, ohne es in jedem Fall zu wissen.

Kaufentscheidungen werden durch automatisierte Prozesse beeinflusst

Kaufentscheidungen und Mediennutzung werden heute in einer digitalisierten Umwelt mehr und mehr durch automatisierte Prozesse vorbereitet und beeinflusst. „Augmented Decisions“, also erweiterte Entscheidungen, nennt das Fabian Buder. Er ist Head of Future & Trend Research beim Nürnberg Institut für Marktentscheidungen (NIM), dem früheren GfK Verein. Zusammen mit seinen Kolleginnen und Kollegen erforscht er unter anderem, wie es um unsere Wahlfreiheit in einer algorithmisierten Umwelt bestellt ist. Das NIM hat diesem Thema die aktuelle Ausgabe seiner Fachpublikation „Marketing Intelligence Review“ gewidmet, auch beim eigenen Online-Event, dem „Marketing Decision Day“, ging es hauptsächlich darum.

Augmented Decisions liegen dann vor, wenn Menschen bei ihrer Informationssuche auf digitale Hilfsmittel zurückgreifen, etwa Suchmaschinen, Preisvergleichsportale oder automatische Produktempfehlungen auf Shopping-Seiten. Die Suche nach einem Restaurant in der Navigations-App oder die Vorschläge für Filme oder Songs bei Streaming-Diensten gehören ebenfalls dazu. Vieles davon ist schon lange Teil unseres Alltags, ohne dass wir darüber nachdenken. Buder nennt diese digitalen Hilfsmittel „Smarte Maschinen“. Sie zeichnen sich dadurch aus, dass sie eine Vielzahl von Algorithmen einsetzen, datenbasierte Prognosen erstellen und automatisierte Aktionen einleiten. Oft sind sie sogar interaktionsfähig, das heißt es gibt eine Schnittstelle für die Kommunikation mit dem Nutzer, wie wir sie etwa bei Chatbots oder Smart-Speakern wie „Alexa“ kennen. Der Nutzer habe dabei die Illusion, tatsächlich mit einer Künstlichen Intelligenz zu sprechen.

„Die wenigsten unserer Entscheidungen sind heute unbeeinflusst von smarten Maschinen“, erläutert Trendforscher Buder. Die Informationen, die wir im Internet bekommen, seien vorsortiert und personalisiert. Netflix-Nutzern zeige man unterschiedliche Film-Cover für denselben Film, abhängig von ihren bisher gezeigten Interessen. Werbung und Empfehlungen seien individualisiert und haben dadurch einen starken Einfluss.

Beispiel YouTube: Die meisten Videos, die YouTube-Nutzer anschauen, seien jene, die von YouTube empfohlen und vorselektiert wurden. Dadurch würde unser Verhalten zwar nicht komplett gesteuert, aber durch „Nudging“ mehr oder weniger in die eine oder andere Richtung gelenkt, so Buder. Nicht immer seien sich die Verbraucher dessen bewusst. Provokant stellt der NIM-Forscher die Frage: „Was ist eine freie Entscheidung, wenn alles vorsortiert und vorselektiert ist?“

Die Leute erwarten von uns bessere Empfehlungen und Komfort

Nicht alle Experten sehen die Sache so kritisch. Ein erfolgreiches US-Sachbuch aus dem Jahr 2016 heißt „Algorithms to Live By“. Die Autoren Brian Christian und Tom Griffiths feiern die Möglichkeiten von Computer-unterstützten Entscheidungen. Sie würden uns schlauer, gesünder und effizienter machen, vielleicht sogar vor den Klimaveränderungen retten.

Ein Unternehmen, in dem Daten mittlerweile eine wichtige Rolle spielen, ist die Mediengruppe RTL. Verantwortlich für alle Aktivitäten rund um Daten und Marktforschung ist Karin Immenroth. Sie sieht die zunehmend wichtiger werdende Rolle der Algorithmen positiv: „Wir erleichtern unseren Nutzern die Entscheidung.“ Das geschehe zum Beispiel auf der eigenen Video-Streaming-Plattform TV Now. Hier seien viele algorithmische Entscheidungshilfen ganz selbstverständlich implementiert: Natürlich werden Empfehlungen gegeben, aber auch so einfache und heute ganz selbstverständliche Funktionen wie das Erkennen von typischen Tippfehlern bei der Suche nach Sendungen sind KI-basiert.

In einem UX Lab werden immer neue Features getestet. Werden die Nutzerinnen und Nutzer dabei nicht irgendwann misstrauisch oder fühlen sich entmündigt? Keinesfalls, meint Karin Immenroth. „Die Leute sind sehr offen, sie erwarten von uns bessere Empfehlungen und Komfort“, meint die Daten-Chefin. Man wolle mit den Tipps inspirieren und nicht das Inhalte-Spektrum verengen. Klassische Kundenbefragungen und Usability-Tests würden schnell zeigen, ob und wie die automatischen Features angenommen werden.

„Es muss kostenlos und bequem sein“, so beschreibt Fabian Buder die Erfolgsformel von digitalen Diensten. Die Widersprüche seien offensichtlich: In Umfragen zeigen die Verbraucher von Bedenken und Skepsis gegenüber der Herausgabe von privaten Daten, doch im Alltag seien viele eher sorglos, wenn es darum geht, diese zur Verfügung zu stellen und die Dienste der Plattformen und Apps zu nutzen. Dabei sei es durchaus fragwürdig, ob die Algorithmen wirklich im Interesse der Konsumenten arbeiten.

„Jeder Algorithmus soll etwas optimieren – zum Beispiel die Zahl der Online-Verläufe oder die Zeit, die auf einer Streaming-Plattform verbracht wird“, erläutert der Trend-Forscher. Diese Ziele seien für das Geschäft der Anbieter gewinnbringend, nicht für den Nutzer. Deutlich wird es bei Preisvergleichs-Portalen: Dort besteht die Gefahr, dass nicht die Ausgaben der Kunden optimiert werden, sondern die Provision des Anbieters. Buder wünscht sich bei den Nutzern ein besseres Wissen über solche Zusammenhänge und hofft, dass dadurch ein souveräner Umgang mit Daten und digitalen Services gefördert wird – das Stichwort dazu heißt „Algorithm Literacy“, also die Kompetenz damit umzugehen.

Die zugrundeliegende Mathematik versteht kaum jemand

Ein reflektierterer Umgang mit Algorithmen sei auch bei den Entscheidern im Marketing und Management notwendig, meint Prof. Gerald Lembke, Inhaber des Lehrstuhls für Digitale Medien und Medienmanagement an der Dualen Hochschule Baden-Württemberg. Marketing-Manager seien ganz heiß auf einfache Antworten, KI würde genau das versprechen. Doch die dahinterstehenden Prozesse oder gar die zugrundeliegende Mathematik verstehe kaum jemand.

Deshalb wird an die Überlegenheit der Automation zwar geglaubt, sie werde aber nicht überprüft. Fehler, Verzerrungen, falsche Interpretationen und mangelnde Reflexion seien die daraus folgenden Gefahren. Lembke, dessen neues Buch „Digital-Fitness für Führungskräfte“ demnächst erscheint, warnt davor, das Soziale durch das Digitale zu ersetzen. „Gespräche mit Kunden liefern ein Gefühl für die Märkte“, meint der Professor. Emotionale Intelligenz könne nicht auf KI-Systeme überantwortet werden, hier sei der Manager als Mensch gefragt. Er müsse die Ergebnisse der Algorithmen hinterfragen und eine kritische Distanz bewahren. „Je mehr KI im Einsatz ist, desto kritischer sollte man selbst denken“, so die griffige Formel von Lembke.

Halten wir fest: Augmented Decisions sind schon lange Teil unserer Umwelt. Smarte Maschinen beeinflussen, welche Medieninhalte wir nutzen, welche Werbung wir sehen und welche Informationen wir bekommen. Wie muss die Marktforschung darauf reagieren? Fabian Buder und seine Kollegen sehen ihre Aufgabe darin, zu erforschen, wie die Interaktion von Konsumenten und smarten Maschinen funktioniert. Dazu entwickeln sie gelegentlich eigene Modell-Algorithmen, die dann von Versuchspersonen in kontrollierten Experimenten genutzt werden.

Forschungsergebnisse dazu findet man in den Publikationen des Nürnberg Instituts für Marktentscheidungen. Schon der Name der Institution zeigt übrigens die Richtung: Während der alte GfK-Verein den Konsum erforschte, geht es heute um Entscheidungen – die nicht nur alleine von Menschen getroffen werden. Einen blinden Fleck hat die Marktforschung: Sie schaut nicht in das Innere der Maschinen. Algorithmen als Untersuchungsgegenstand widersetzen sich noch weitgehend den klassischen Marktforschungsmethoden. Sie betrachten eben Menschen und nicht Maschinen. Die Bedeutung von KI und Algorithmen im Konsumalltag wird ansteigen, da sind sich alle Experten einig. Da wird der Marktforschung nichts anderes übrigbleiben, als auch nicht-menschliche Markt-Akteure unter die Lupe zu nehmen.
    Ich habe die Datenschutzbestimmungen zur Kenntnis genommen und akzeptiere diese.
    stats