Hartmut Scheffler

Ein Blick zurück nach vorn

   Artikel anhören
Hartmut Scheffler
© Kantar TNS
Hartmut Scheffler
Auf eine fast vierzigjährige Erfahrung in der Marktforschung kann Hartmut Scheffler, Geschäftsführer Kantar Deutschland, zurückblicken. Neben seiner Unternehmenstätigkeit war er langjähriger Vorstandssprecher des Arbeitskreises Deutscher Markt- und Sozialforschungsinstitute ADM. Heute sieht er die Marktforschung vor ihrer umfassendsten Transformation, wenn nicht sogar vor einer kompletten Disruption. Eine Analyse inklusive Lösungsvorschlag für die Branche

Erkennt man die Marktforschung wieder, wenn man sie heute mit dem Jahr 1980 vergleicht, als ich vom Stadtplaner im öffentlichen Dienst zum Marktforscher in der freien Wirtschaft geworden bin? Absolut! Sie hat sich natürlich verändert, aber sie hat sich selbstähnlich verändert, das heißt, ihren Wesenskern, ihren Markenkern beibehalten. Die grundsätzlichen Aufgaben sind unverändert: Die Beschaffung von Daten – zunehmend die Bewertung und richtige Nutzung existierender Daten –, das Bewerten und damit Verstehen der Relevanz der Daten, das Verstehen der damit gemessenen Verhaltensweisen und Einstellungen und damit das Verstehen von Menschen. Und – darauf aufbauend – Relevanz und Impact für Markenführung und Marketing geben. Die Aufgaben sind also weitestgehend unverändert, nur das „wie“ hat sich in einigen Punkten deutlich verändert.

1. Konsolidierung und Spezialisierung

Die Branche hat sich internationalisiert, immer stärker technisiert und steht mittendrin im Prozess einer kompletten Digitalisierung. Genau diese Herausforderungen, die nicht selten auch mit hohen Investitionen und Kapitalbedarf verbunden waren und sind, haben zu einer Branchen-Konsolidierung geführt. Die Entwicklung bei meiner eigenen Firma zeigt dies eindrucksvoll: beginnend mit Emnid über Emnid-Sofres, TNS Emnid, TNS Infratest bis hin zu Kantar als – nun in der Verkaufsdiskussion stehender – Teil von WPP. Auf der anderen Seite hat die Nachfrage nach Branchenspezialisierung, Themenspezialisierung, Methodenspezialisierung zu einer Vielzahl von Neugründungen von meist kleinen Anbietern geführt. Dieser Prozess der Konsolidierung der Branche einerseits und der Spezialisierung andererseits wird fortschreiten.

Take away: Polarisierung in große internationale Konzerne einerseits und Spezialisten andererseits.



2. Relevanz und Impact von Marktforschung

Auch noch in den 1980er Jahren ging es vor allem um neue Daten. Grundlagenstudien, Multi-Client-Studien, breit angelegte U&A-Untersuchungen deckten den allgemeinen Datenhunger. Hier mögen die vielen großen Markt-Media-Studien der Verlage zu Getränken, zum Wohnen, zu Küche und Kochen genannt werden. Das war dann in der Tat der heute oft kritisierte Blick in den Rückspiegel oder auf den Status quo. Dann kam der Bedarf an konkreten Daten für die einzelne Branche, das einzelne Unternehmen, die einzelne Marke, für Fragen rund um Innovationen und neue Produkte, zu Kommunikation und Markenführung bis hin zur Kundenzufriedenheit. Die Fragestellungen wurden konkreter, die Untersuchungsanlagen methodologisch wie auch methodisch anspruchsvoller und vor allem kam der Blick nach vorne hinzu: Forecasting, Szenario-Technik, What-if-Analysen. Stärker als zuvor wurde in operative Fragestellungen und Studien einerseits und strategische Untersuchungsansätze andererseits unterschieden.

Exkurs: Was es leider immer gab, gibt und vermutlich geben wird, ist die reine Alibiforschung, bei der nicht das Erkenntnisinteresse für Maßnahmen operativer oder strategischer Art im Vordergrund steht, sondern allein die Legitimation vergangener Entscheidungen.

Aus der eingeforderten und behaupteten „Entscheidungshilfe durch Marktforschung“ sind in der Begrifflichkeit Notwendigkeit und Nachweis von „Impact“ geworden. Dies heißt aber nichts anderes, als dass die Marktforschung relevant für Markenführung und Marketing sein muss.

Wenn aber Entscheidungen in den Unternehmen ohne Marktforschung erfolgreich gefällt würden, wenn Marktforschung kein Muss, sondern maximal ein Nice-to-have wäre, dann wäre Marktforschung bereits 1980 überflüssig gewesen und wäre es angesichts der neuen Datenfluten erst recht heute und morgen. Relevanz und Impact wird Marktforschung morgen nur dann haben, wenn sie einerseits – wieder verstärkt – Grundlagenforschung und damit Grundlagenerkenntnisse zu allgemeinen Wirkregeln liefert. Themen sind hier Ansätze für Touchpoint Management, für das Verständnis und die Optimierung der sogenannten Customer Journey, für Zusammenhänge zwischen CRM und Markenstärke, zwischen Markenerfahrungen (CX) und Markenstärke und so weiter. Darüber hinaus gilt es zunehmend, schnell und zeitnah noch granularer zu werden. Die Zunahme von A/B-Testing ist ein Beispiel in dieser Richtung.

Take away: Relevanz und Impact schaffen durch erweitertes Grundlagenwissen einerseits, schnelle, zeitnahe, granulare Antworten und Lösungen andererseits.

3. Wissen um die Qualität erhalten

In den 40 Jahren hat sich eine Vielzahl neuer Methoden der quantitativen und qualitativen Forschung, der impliziten Messung bis hin zu technischen Messungen herausgebildet. Nicht selten hieß es, die neue Methode „kille“ die alte: Die Realität zeigt dagegen, dass neue Methoden existierende ergänzen und dass so gut wie alle Methoden sich mit ihrem jeweils eigenen Stärken- und Schwächenprofil ergänzen. Neue Methoden machen es möglich, für die Vielzahl unterschiedlicher Fragestellungen aus einem immer größer werdenden Kanon von Methoden die jeweils besten auszuwählen. Dieser Prozess wird fortschreiten.

Jetzt das Jubiläumsheft als E-Paper lesen!
Auch die Qualitätskriterien haben sich erweitert. Waren am Anfang die forschungsmethodischen Qualitätskriterien (Objektivität, Reliabilität, Validität) im Zentrum der Diskussionen, so macht sich Qualität vor allem aus Sicht der Nachfrager mittlerweile auch fest an Kriterien wie Schnelligkeit, Value for Money, Mitarbeiter-Skills bis hin zum Impact der Forschung. Der Qualitätsbegriff ist also zunehmend weitergefasst, ohne dass deshalb die klassischen Kriterien an Bedeutung verlieren. Nichts macht dies mehr deutlich als die aktuelle Repräsentativitäts-Diskussion. Dass dabei neue beste Herangehensweisen kreiert werden, zeigt das Thema der Methodenkombination. Noch vor wenigen Jahren war es absolut verpönt, aufgrund der ganz unterschiedlichen Effekte der Befragungssituation im Rahmen einer quantitativen Untersuchung Methoden wie zum Beispiel Telefon und Online zu kombinieren. Mittlerweile wird dies als eine geeignete Möglichkeit gesehen, die unterschiedlichen Erreichbarkeiten unterschiedlicher Teilgruppen methodisch „auszugleichen“ und zu insgesamt höheren Response-Raten und besserer Abdeckungen unterschiedlicher Bevölkerungsgruppen zu kommen.
„Gefährlich ist es nicht, im Rahmen einer lebendigen Qualitätsdiskussion zu unterschiedlichen Vorschlägen und neuen Lösungen zu kommen. Gefährlich ist es, wenn die Qualitätsdiskussion gar nicht mehr geführt wird, weil das Wissen um die Unterscheidbarkeit von qualitativ schlechten zu qualitativ anspruchsvolleren Untersuchungen fehlt. Wer Qualität nicht bewerten kann und Qualität nicht fordert, wird keine Qualität erhalten“
HArtmut Scheffler

Gefährlich ist es nicht, im Rahmen einer lebendigen Qualitätsdiskussion zu unterschiedlichen Vorschlägen und neuen Lösungen zu kommen. Gefährlich ist es, wenn die Qualitätsdiskussion gar nicht mehr geführt wird, weil das Wissen um die Unterscheidbarkeit von qualitativ schlechten zu qualitativ anspruchsvolleren Untersuchungen fehlt. Wer Qualität nicht bewerten kann und Qualität nicht fordert, wird keine Qualität erhalten. Dann bekommen die Schlagworte der „alternativen Fakten“ oder „Fake News“ leider eine ganz andere – weil in der Datenentstehung und nicht nur in der Interpretation begründete – wachsende Bedeutung.

Was ist zu tun? Nachfrager wie Anbieter von Marktforschungsleistungen müssen qua entsprechender Ausbildung und kontinuierlichem Learning by Doing den sich ständig erweiternden und optimierenden Methodenbaukasten beherrschen, sie müssen die Qualitätskriterien und Diskussionen kennen – dabei nicht zwangsläufig zu den gleichen Resultaten von gut und schlecht kommen – und es muss vor allen Dingen Transparenz geben. Transparenz heißt: Von Seiten der Nachfrager wie Anbieter Transparenz wollen, Transparenz liefern, Transparenz verstehen.

Take away: Bewusstsein, Wissen und Transparenz als Voraussetzung auch zukünftig qualitativ hochwertiger und damit relevanter Marktforschung.

4. Flops nicht vergessen – Fehler nicht wiederholen

Die Qualitätsdiskussion lässt mich an die Flops in 40 Jahren Marktforschung denken. Die Alibiforschung wurde schon erwähnt. Der leider immer noch stattfindende Missbrauch des Begriffs Marktforschung für häufig unerlaubtes Telefonmarketing und für Werbung hat zudem die Reputation geschwächt. Sinkende Responsequoten sind damit kausal verknüpft. Eine Lösung ist leider so lange nicht in Sicht, wie existierende Gesetze nicht rigoros durchgesetzt werden.

Immer wieder erwähnt, immer wieder kritisiert und trotzdem nicht auszurotten – siehe die aktuelle Zeitumstellungs-„Befragung“ der EU – ist die „Tonnen-Ideologie“: Je mehr Antworten und Interviews, umso aussagekräftiger, umso „repräsentativer“ sei eine Umfrage, heißt es oft. Der unsägliche TED war nur ein besonders publikumswirksamer negativer Höhepunkt dieses intellektuellen Dauerflops.

Unschön und immer noch nicht auszurotten sind auch grundsätzliche Diskussionen wie „quantitativ versus qualitativ“, „Quota versus Random“, „technische Messung versus Befragung“. Hier erkenne ich aber zumindest Licht am Ende des Tunnels, wenn aus dem „versus“ ein „Best-of“ im Sinne einer Kombination der Methoden wird. Möge sich dieses kollaborative Denken in Zukunft verstärken. Und dann gab und gibt es immer wieder das unreflektierte und oft inflationäre Benutzen von Begriffen wie etwa „Insights“. Oder die Begriffsverwirrung zwischen Korrelationen und Kausalitäten.

Diese Probleme halte ich für deutlich relevanter als die alle 10 bis 15 Jahre auftauchenden Betrugsfälle, wie zuletzt in der Akte Marktforschung von Spiegel Online. Einzelne Betrugsfälle wird es immer wieder geben (der Spiegel merkt es ja selbst gerade im Fall Relotius). So unakzeptabel und mit aller Macht zu vermeiden: Sie sind aber Ausnahmen. Die erwähnten Flops wirken leider nachhaltiger und deshalb gilt:

Take away: Flops nicht vergessen! Fehler nicht dauernd wiederholen!

5. Herausforderungen gestern und morgen

Zum einen gibt es Herausforderungen auf der Nachfrager-Seite, entstanden aus den ständig wachsenden Ansprüchen im Marketing und in der Markenführung. Die Anzahl der Business Issues hat kontinuierlich zugenommen, quantitativ wie qualitativ. Ein Beispiel: Vor 30 Jahren begann die Marktforschung systematisch, Kundenzufriedenheit zu messen, vergleichbare Scores zu bilden, Zeitreihen aufzubauen.



Man entdeckte, dass Kundenzufriedenheit und Kundenbindung natürlich miteinander zusammenhängen, aber zwei ganz unterschiedliche Aspekte betreffen und damit verschiedene Aufgaben an die Marktforschung darstellen. Heute gibt es ein breit gefächertes Instrumentarium für ereignisübergreifende wie ereignisbezogene CX-Messung, eine Vielzahl angebotener Software-Pakete und vieles mehr. Gleiches hat im Bereich der Kommunikations- und Medienforschung, der Innovationsforschung und anderer Richtungen stattgefunden. Diese Herausforderungen nach noch genauerem Verstehen von Einstellungen und Verhalten, nach noch häufigerer „Realtime-Messung“ werden allein schon durch die Möglichkeiten der Digitalisierung und der „Connected World“ beschleunigt und werden zunehmen.

Die zweite Herausforderung bestand darin, neue technische Entwicklungen – sei es durch Hardware oder damit verbundene Software – in die Marktforschung zu integrieren. Telefoninterviews, Onlinebefragungen, apparative Messverfahren oder technische Messungen (Eyetracking ist hier mittlerweile schon ein Klassiker) bestimmten die vergangenen Jahrzehnte. Diese Herausforderungen werden zunehmen und schon in naher Zukunft existenziell werden. Dann gibt es die noch eher klassischen, nennen wir sie systemimmanenten Themen wie Do-it-Yourself-Forschung, „Voice“ für das nachfragende Kundenmarketing wie als Marktforschungsmethode, Zunahme von automatisierten End-to-End-Lösungen wie umfassende Automatisierung insgesamt, verstärkter Einsatz und neue Methoden im Bereich der Datenanalyse inklusive künstlicher Intelligenz und selbstlernender Systeme. Ich bin mir sicher, dass die Marktforschung diesen Herausforderungen gegenüber bestens gewappnet ist.

Bei zwei anderen Herausforderungen aber wird es „spannend“. Ein Spezifikum der nächsten Jahre wird die Plattform-Ökonomie sein. Wem gehören die Daten, wer sammelt die Daten, wo werden sie zu wertschöpfenden Geschäftsmodellen? Bei den sogenannten GAFAs (Google, Amazon, Facebook, Apple) bei Agenturketten, bei Unternehmen/Markenartiklern selbst, bei IT-Konzernen wie SAP, bei Beratungskonzernen wie Accenture oder Deloitte? Die (neue) GfK und Kantar im WPP-Verbund versuchen hier marktforschung-getriebene Antworten zu geben. Mit dieser Herausforderung eng verbunden und auch schon erwähnt: Neue Konkurrenten besetzen zunehmend das Feld datenbasierter Dienstleistungen bis hin zu ganz konkreten Themenfeldern wie CRM Integration, CX Integration etc. Diese Konkurrenten von A wie Accenture bis S wie SAP nennen ihr Geschäftsfeld zwar nicht „Marktforschung“, sie bieten aber Lösungen in originären Marktforschungsfeldern an.

Was tun? Um keine Missverständnisse aufkommen zu lassen: Natürlich wird es weiter Bedarf an quantitativer und verstärkt auch qualitativer Primärforschung geben. Natürlich werden allen algorithmischen Lösungen zum Trotz die Warum-Fragen nicht verschwinden und immer besser aufgrund immer ausdifferenzierterer Methoden durch Marktforschung beantwortet werden können. Dies wird aber rein quantitativ das Schrumpfen der Primärforschung nicht stoppen. Marktforschung muss vor dem Hintergrund der neuen Herausforderung einerseits und der neuen – meist globalen und kapitalstarken – Konkurrenten andererseits den differenzierenden USP herausarbeiten, das differenzierende und alleinstellende Profil schärfen.

Dies scheint mir machbar: Aufbauend auf einem interdisziplinären Skill-Set hat die Marktforschung – setzt sie weiterhin auf Ausbildung, methodologische und methodische Weiterentwicklung, Qualität und Transparenz – etwas Einmaliges zu bieten: Datenverständnis (Relevanz der Daten und Bewertung der Datenqualität) + Markenverständnis (Verständnis von Marketing, Markenführung) + vor allem Menschenverständnis (Verständnis menschlicher Verhaltensweisen, Einstellungen und Einstellungsänderungen). Dieses „Verstehens-Dreieck“ ist meine Antwort auf die Frage, welchen USP Marktforschung heute noch hat.

Dies wird in nächster Zukunft aber nur gelingen, wenn nicht nur das eigene Marketing, die Positionierung der Branche besser wird, sondern wenn auch entsprechend in Mitarbeiter, deren Ausbildung und Skills investiert wird. Marktforschung muss weiterhin rigoros interdisziplinär bleiben – so interdisziplinär wie keine der vorher erwähnten Konkurrenzbranchen. Für das Thema „Daten“ braucht es Sozialforscher, Mathematiker, IT-Spezialisten, Informatiker. Für das Thema „Marke“ braucht es Betriebswirte, Marketingspezialisten etc. Für das Thema „Menschen“ braucht es Sozialwissenschaftler, Psychologen, Neurologen und Politologen. Wenn dann in Projektteams Generalisten und interdisziplinäre Spezialisten kooperieren und diese integrierte Dienstleistung anbieten, sollte es gelingen.

Take away: Positionierung als angewandte Wissenschaften, Profilschärfung und alleinstellender USP. Stichwort: Versteher.

Am Ende ein ganz persönliches Resümee: Ich bin vor 39 Jahren vom Stadtplaner im öffentlichen Dienst zum Marktforscher in der freien Wirtschaft geworden. Würde ich es wieder tun? 100 Prozent ja! Warum? Was gibt es Schöneres, als zusammen mit Menschen Menschen zu verstehen und auf dieser Basis mit Impact Politik und Wirtschaft zu beraten.

Erschienen in planung&analyse Jubiläum 2019

Ich habe die Datenschutzbestimmungen zur Kenntnis genommen und akzeptiere diese.
stats