planung&analyse Insights 2019

Hallo STAN, machst Du in Zukunft meinen Job?

© Pixabay.com
Schaffen sich Data Scientists selbst ab, indem sie Algorithmen entwickeln, die ihre Arbeit übernehmen? Dr. Markus Eberl, Leiter der Analytics Practice bei Kantar und Referent auf der diesjährigen p&a Insights Konferenz, glaubt: Teilweise ja, aber die Integration und das Kuratieren von Daten braucht trotz aller Automatisierung auch in Zukunft noch menschliche Datenanalysten.
Bei Amazon, Facebook & Co. haben es die Datenexperten auf den ersten Blick leicht: Sie haben dank individueller Identifikatoren einzelne Personen sowohl auf ihrer eigenen Plattform als auch im weiteren Onlineumfeld – vermehrt auch mobil – im Blick. Dadurch können sie das Verhalten ihrer Mitglieder und Kunden modellieren und vorhersagen. Die unglaubliche Menge an Datenpunkten, die hier entstehen, mag zunächst einschüchternd wirken, aber genau hier hat die maschinelle Verarbeitung mit künstlicher Intelligenz ihre Stärke. Ganz automatisch werden Regelmäßigkeiten sichtbar, aus denen sich Prognosen für zukünftiges Verhalten ableiten lassen. Viel dieser Datenarbeit ist von selbstlernenden und strukturentdeckenden Algorithmen automatisierbar. So werden heute schon die eigentlichen Vorhersagemodelle von anderen Algorithmen automatisch programmiert. Data Scientists schaffen sich selbst ab.


Anders als die Datenanalysten innerhalb dieser Organisationen gibt es aber ein Betätigungsfeld, das ich für deutlich spannender halte, weil es noch viel komplexer ist: die Arbeit als Datenintegrator und -kurator. Diejenigen, die sich früher als Marktforscher oder Mediaplaner bezeichnet haben, sind hierfür perfekt aufgestellt.

Unterschiedliche Datenarten

Auch wenn die Internetschwergewichte gerne unsere ungeteilte Aufmerksamkeit auf sich ziehen möchten, bewegen wir uns nicht ausschließlich auf ihren Plattformen. Nach wie vor treffen wir an ganz unterschiedlichen Stellen auf Marken und Kommunikation, wir probieren Produkte und Dienstleistungen aus und halten uns gegenseitig darüber auf vielen verschiedenen Kanälen auf dem Laufenden. Die dadurch entstehenden Rohdaten zeichnen sich durch unterschiedliche Eigenschaften, Qualitäten und Formate aus: sie bestehen aus Feedbacks, die Kunden bei Unternehmen hinterlassen, aggregierten Marken- und Werbetrackings oder den Ergebnissen von Pre- und Posttests.
planung&analyse Insights 2019
Auch etwas Rationalität tut der öffentlichen Diskussion gut: George Orwells Vision wird nicht automatisch zur Wirklichkeit. Einen alles umfassenden Single-Source-Ansatz, der zentral zugänglich ist und in den alle verfügbaren Daten zusammenfließen, wird es nicht geben. Schon allein aus wirtschaftlichen Gesichtspunkten ist dies keine Option, noch nicht mal für die großen Plattformen. Die DSGVO und ihre Denkweise sind hierbei gut und hilfreich. Es steckt noch genügend ungenutztes Potenzial für Marken und Unternehmen in der Herausforderung, ganzheitlich zu verstehen, wie Menschen denken. Eine Einzelpersonensicht ist für Effizienzsteigerungen im Marketing nicht nötig – auch bei Unternehmen, die schon viel über ihre eigenen Kunden wissen.

In der Unterschiedlichkeit der Datenarten besteht die Komplexität für die Tätigkeit von Data Scientists: So beinhalten anonyme Daten aus Befragungen wertvolle Informationen über die Mentalität der Kunden und besitzen eine hohe Aussagekraft für zukünftiges Verhalten. Außerdem sind personen-individuelle Informationen aus dem Customer Relations Management und den operativen Systemen über die Nutzungsweise der Produkte durch die Kunden verfügbar. Dazu kommen Mediennutzungsdaten aus Clickstreams. Manche Daten liegen wöchentlich und nur aggregiert vor, andere nur zu einem Zeitpunkt und dafür auf Einzelpersonenebene. Die Algorithmen der künstlichen Intelligenz sind noch nicht in der Lage, den Kontext richtig einzuordnen, wie diese Daten integriert werden müssen. Sie können aber dabei helfen, diese Vorgänge zu unterstützen und zu automatisieren.

Chancen und Grenzen der künstlichen Intelligenz

Sehen wir uns ein Beispiel aus unserer täglichen Arbeit an: Unseren neuen „Kollegen“ mit künstlicher Intelligenz nennen wir „STAN“ – kurz für Social and Text AI and Natural Language Framework. Mit Hilfe von STAN können nicht nur geschriebene, sondern auch aus Voice und Video umgewandelte Texte sowie Bilder automatisch analysiert und klassifiziert werden. STAN ist ein mächtiges Framework, das Texte in verschiedenen Sprachen zu Themen und Sentiment clustern kann. Es automatisiert viele Schritte, welche in der Vergangenheit das Arbeiten mit Texten und Fotos aufwändig gemacht haben. Dennoch muss auch die KI STAN von Menschen an die Hand genommen werden, um das richtige Maß an Granularität für den gewünschten Output zu definieren – und die Daten in einen Kontext zu stellen. Der „Human in the Loop“ muss zwar nur noch sehr wenig eingreifen und wird dadurch um ein Vielfaches effizienter als noch vor wenigen Monaten und Jahren. Aber sein Eingriff liefert oft den entscheidenden Qualitätsfaktor.
Dr. Markus Eberl

leitet die Kantar Analytics Practice in Deutschland und hilft mit seinen 40 Kolleginnen und Kollegen Kunden dabei, das Potenzial existierender Daten zu heben und damit konsumentenzentrierte Marketingaktionen zu befeuern.

Markus Eberl
© Kantar

Wir können STAN heute für viele unterschiedliche Fragestellungen und Anwendungsfälle – von Social Segmentation und dem Entdecken von Themen bis hin zum Hot Topic Alerting – sowie als „Gehirn“ von Chatbots einsetzen. Neben Social Analytics oder der Analyse von offenen Nennungen nutzen wir STAN beispielsweise auch dafür, eine digitale Typologie zu entwickeln. Hierbei geht es darum, Profile und Segmente von Konsumenten und ihren Nutzungssituationen basierend auf ihrem digitalen Fußabdruck zu entwickeln.


Für einen Spirituosenhersteller fand STAN zum Beispiel sehr schnell unterschiedliche Cluster von Nutzungssituationen für Whiskey heraus – basierend auf Twitter- und anderen Social-Media-Daten. Die Nutzungsmissionen sind zwar inhaltlich wenig überraschend für Kategoriekenner: STAN entdeckte Whiskeygenuss als Anlass für sich selbst, als Krönung eines besonderen feierwürdigen Anlasses und als Teil einer Partysituation. Vor allem aber wurde die Social-Segmentierung von Usern auch danach entwickelt, wo und wie die jeweilige Zielgruppe anhand von Persönlichkeitsprofilen und ihrem Nutzungsverhalten gezielt angesprochen werden kann. Hierfür müssen wir Menschen dem System bei der Auswahl relevanter Datenquellen helfen. Wir müssen den Themenfokus setzen, die Granularität festlegen und so das Zielbild definieren, mit dem wir weiterarbeiten wollen. Es ist an uns, den konzeptionellen Input liefern, um aussagekräftige Analysen ins Rollen zu bringen.

Wir sehen den Mehrwert von STAN auch in vielen Customer Feedback-Studien, wenn es darum geht, die Wichtigkeit von Themen auf den NPS und den ROI zu modellieren. Hier hilft uns das STAN-Framework dabei, Millionen von Datenpunkten aus verschiedenen internen und externen Systemen effizient zu integrieren. Aber womit anfangen? Um schnell mit den vielversprechendsten Möglichkeiten zu starten, hat sich aus unserer Erfahrung ein strukturierter Discovery-Ansatz bewährt, der einerseits alle möglichen Datenquellen erforscht, andererseits alle beteiligten (und betroffenen) Menschen mit ihren Fragestellungen zusammenbringt. Also ja: „Kollege“ STAN übernimmt einen großen Teil der Datenintegrations-Arbeit. Aber nicht denjenigen Teil unseres Jobs, der intellektuell wirklich spannend ist.
Ich habe die Datenschutzbestimmungen zur Kenntnis genommen und akzeptiere diese.
stats