Dirty Data in Online Surveys: Wie Sie die Datenqualität vor und nach der Feldphase verbessern können.

Die 1986 kurz nach dem Start explodierte Challenger-Raumfähre der NASA mit sieben Astronauten[1] und das wegen eines Fehlers in Google Maps versehentlich abgerissene Haus von Lindsey Diaz[2] sind beides Konsequenzen mangelnder Datenqualität.

Als multifaktorieller, unscharfer Begriff ist Datenqualität kein «Messerwert», sondern wird multimodal erarbeitet: bei Online-Befragungen vor der Feldphase mittels elaboriertem Sampling, Fragebogenkonzeption und Pretesting. Aber auch danach in der Analyse und der Bereinigung der gewonnenen Daten. Hinzu kommen Meta-Aspekte der Datenqualität wie Passung der Daten zur Forschungsfrage, Prozesstransparenz, faire Datengewinnung oder proaktiver Datenschutz, die Empowerment für Kunden bewirken.

Datenqualität – was ist das?

57 Millionen Suchergebnisse bei google verdeutlichien die Relevanz des Begriffs «Data Quality». Im täglichen Sprachgebrauch wird der Begriff «Datenqualität» häufig mit der Richtigkeit (Präzision) von Daten gleichgesetzt. Um diese zu erhöhen, werden genauere Messinstrumente, rigorose Datenerhebungsverfahren und komplexe statistische Methoden zum Aggregieren von Daten entwickelt[3]. Auch der Fokus der nachfolgend präsentierten Massnahmen zur Erhöhung der Datenqualität liegt auf der Verbesserung der klassischen Gütekriterien Validität und Reliabilität von Umfrageergebnissen. Darüber hinaus differenzieren Konzepte wie das der Universität Greifswald Datenqualität weiter, hier in die Dimensionen Integrität, Komplettheit und Korrektheit (Konsistenz und Akkuratheit)[4] – und es existieren in der Literatur zahlreiche überlappende Modelle[5].

Bild 1: Datenqualitätsmodell der Universität Greifswald nach Schmidt et al. (2021)

Insbesondere im Bereich der Markt- und Meinungsforschung stehen am Ende der Datenverarbeitung Auftraggebende oder Forschende als Consumer der Daten. Daher ist es besonders wichtig, zu verstehen, dass Datenqualität aus Konsumentensicht oft über die Präzision von Werten hinausgeht.

Consumer als Zielgrösse

Welche Aspekte der Datenqualität für Consumer ausschlaggebend sind, untersuchten Richard Y. Wang und Diane M. Strong in einer zweistufigen empirischen Studie. Definiert wurde Datenqualität dabei über das verbreitete «fitness-for-use»-Konzept[6], welches Datenqualität durch die Eignung der Daten zum von Consumern angedachten Zweck bestimmt. Das Ergebnis der Studie war ein vierdimensionales Modell von Datenqualität, welches das bestehende Konzept empirisch operationalisiert[6].

Die vier Dimensionen sind: intrinsic data quality, contextual data quality, representational data quality und accessibility data quality. Sie zeigen, dass für Consumer der Begriff der Datenqualität vielschichtig ist und nicht nur im Sinne der Richtigkeit verstanden werden sollte. Vielmehr sind auch Aspekte wie Glaubwürdigkeit, Relevanz, Vollständigkeit, Interpretierbarkeit, Konsistenz oder Zugänglichkeit der Daten für Consumer ausschlaggebend[4].

Tabelle 1: Dimensionen der Datenqualität mit Ausprägungen nach Wang und Strong (1996).

Vor der Befragung

Jede Onlinebefragung ist trotz Abwesenheit einer interviewenden Person und den damit wegfallenden primären Interviewer-Effekten (deshalb oft als «verzerrungsfrei» angepriesen) immer eine Situation, in der im Extremfall eine parasoziale Interaktion mit einem imaginären Interviewer stattfindet. Oder die mindestens irgendeine Art von kognitivem Stimulus-Response-Prozess bei Befragten auslöst. Dieser gliedert sich als Cognitive Aspects of Survey Methodology (CASM) vereinfacht in vier Schritte[7-10]:

  1. Lesen und Verstehen der Frage
  2. Abrufen relevanter Informationen aus dem Gedächtnis
  3. Beurteilung der abgerufenen Informationen bezüglich Vollständigkeit und Relevanz, kognitive Editierung der präferierten Antwort auf das gewünschte Antwortformat und Angemessenheit
  4. Antwortabgabe

Die kognitive Verarbeitung folgt dabei den Zweiprozessmodellen[11-12] und geschieht elaboriert (intensiv, zentral) oder peripher (oberflächlich, schnell, nebenbei, heuristisch). Eine elaborierte Verarbeitung begünstigen unter anderem die gute Verständlichkeit der Frage, die kognitive Fähigkeit sowie die Motivation der Antwortenden, genügend Zeit und wenig Ablenkung. Eine periphere Verarbeitung öffnet die Tür für Verzerrungseffekte noch weiter.

Zehn Gebote für gute Fragebögen

Bei dieser Verarbeitung sind eine Menge latenter Störeinflüsse (Response Bias[13]) im Spiel, die sich nur schwer kontrollieren lassen. Trotzdem kann im Design von Fragebögen mit zehn Geboten[9], soweit möglich und ökonomisch sinnvoll, vorgesorgt werden, wobei diese weniger als «starre» Regeln, denn als Reflexionsbasis für das Finetuning von Fragebögen dienen:

  1. einfache, unzweideutige Begriffe (werden von allen Befragten sehr ähnlich verstanden)
  2. unklare Begriffe definieren
  3. keine langen/komplexen Fragen
  4. keine hypothetischen Fragen
  5. keine Doppelstimuli/Doppelverneinung
  6. keine Unterstellungen/Suggestivfragen
  7. keine Fragen nach Informationen, die viele Befragte vermutlich nicht kennen
  8. Fragen mit eindeutigem zeitlichen Bezug
  9. Antwortkategorien sind erschöpfend und disjunkt (überschneidungsfrei)
  10. Kontext einer Frage wirkt sich nicht auf deren Beantwortung aus

Zum Beispiel kann eine Frage wie «Wurden in Ihrer Schule bereits Projekte im Rahmen des LP21 umgesetzt?» vielleicht Lehrpersonen gestellt werden, aber nicht Eltern (Gebote 2 und 7). Und «Experten denken, dass CO2-Massnahmen zu langsam umgesetzt werden – halten Sie diese Ansicht für richtig oder für falsch?» verstösst gegen das sechste Gebot. Sogar in wissenschaftlich angesehenen Studien werden Fragen gestellt, die sich in erheblichem Masse der Erinnerbarkeit entziehen (Mobiltelefonnutzung in den letzten 6 Monaten): «detailed questions were asked about the initial pattern of use, including network operator and average number and duration of calls, and any subsequent changes in use patterns. Questions were also asked about the proportion of time the phones were used in urban, suburban or rural settings»[14] (Gebot 3, 7, 8). Entsprechend der Konversationsmaximen nach Grice[15] gilt auch für Formulierungen in Fragebögen:

• Qualität (wahr und nicht suggestiv)
• Quantität (so ausführlich wie nötig, so kurz wie möglich)
• Relevanz (zielgruppengerecht, nur fragen und ansprechen, was zum Thema gehört)
• Modalität (klar, eindeutig, kompakt und geordnet)

Weiter sollten Übertragungseffekte minimiert werden: Steht vor der Frage, «Welche Partei wählen Sie am Wahlsonntag?» eine Frage zu Umweltkatastrophen oder eine zum Wirtschaftswachstum? Ist Fleisch 25% fett oder 75% mager?[16] Übertragungs- und Framing-Effekte sollten mit möglichst objektiven Formulierungen und Kontexten verringert werden.

Skalen sind Korsetts, die passen müssen

Auch Rating-Skalen an sich können Verzerrungen unterstützen, da Antworten von den Befragten «passend» gemacht werden. «Trash-Antworten» können reduziert werden, in dem eine Ausweichkategorie «keine Antwort» angeboten wird. Dadurch gehen leider einige gültige Antworten verloren, die versteckte Datenverschmutzung, wenn wegen Fehlen einer Ausweichkategorie einfach irgendwas angekreuzt wird[17], nimmt jedoch ab. Eine mittlere Ausprägung wie «teils/teils» wird ebenfalls empfohlen[18]. Rating-Skalen mit 5 bis 7 vollverbalisierten Antwortkategorien werden mehrheitlich als ratsam erachtet – zu wenige Kategorien differenzieren ungenügend, zu viele sind inhaltlich schwer zu unterscheiden, fehlende Verbalisierung ist schwerer zu interpretieren[18]. Einige weitere Verzerrungseffekte, denen in Online-Befragungen Beachtung geschenkt werden sollte, sind Akquieszenz (generelle Zustimmungstendenz in Skalen), Non-Attitude (beliebige Antworten bei Desinteresse, Zeitknappheit), soziale Erwünschtheit (Erwartungskonformität), Sponsorship-Effekte (Antworten dem Auftraggeber zuliebe), Situationseffekte (Kontext und Ort des Ausfüllens, Anwesenheit von Bekannten, Helfern), Tendenzen zur Mitte (Meiden von Extremen), Lageeffekte (Primacy/Recency-Effekt: Erste und letzte Antwortvorgaben werden besser erinnert und bevorzugt, weil salienter) oder Ankereffekte (Übertragung, Beeinflussung durch Vorfragen, selektives Antwortuniversum, Priming). Schwarz[19] hat zu Letzterem schon 1999 festgestellt, dass Antwortvorgaben implizite Anker setzen. So antworteten unter Verwendung der linken Skala (vgl. Bild 2) nur 16% der Befragten mit «mehr als 2 ½ Stunden». Mit der rechten Skala hingegen insgesamt 38%, obwohl dieselbe Frage gestellt worden war. Die Extremposition der Antwortvorgabe «mehr als 2 ½ Stunden» in der linken Skala lässt die Teilnehmenden unterreportieren, rechts ist der umgekehrte Effekt der Fall.

Bild 2: Ankereffekt der Antwortvorgaben bei Schwarz (1999)

Die Datenqualität ist auch beeinflusst durch die Frageformate: offene Textfelder versus Skalen versus halboffene Formate, Validierungen direkt im Fragebogen, Regie-Anweisungen, visuelle Darstellung von Skalen, Mobildarstellung, technische Einflüsse wie schwer bedienbare Schieberegler; und ebenso Herausforderungen bestimmter Zielgruppen wie Kinder oder digital unerfahrene Benutzer. Pretesting sowie Regie-Hinweise bezüglich der erwarteten Dateneingaben in punkto Umfang, Art und Format der Eingaben sind im Fragebogen fast immer vorteilhaft.

Einige Probleme der Datenqualität können somit durch intensive Reflexion, Einbinden von Fragebogen-Consultants, ausführliches Pretesting (z. B. auch mit Explorieren oder Split-Half-Setups verschiedener Frageformate) und Überarbeiten von bereits bestehenden Fragebögen durchaus adressiert werden.

Nach der Befragung

Mit einem Prämienvolumen von knapp 6 Mrd. CHF (1) stellt die Motorfahrzeugsparte (MFZ) das grösste Auch im Nachgang können Massnahmen zur Verbesserung der Datenqualität getroffen werden. Diese beziehen sich hauptsächlich auf verzerrende Effekte, die Teilnehmende durch ihr Verhalten im Fragebogen erzeugen.

Während einige dieser Effekte, wie z. B. Ausreisser*, Speeder** oder inkomplette Fragebögen unabhängig vom Befragungsmodus auftreten (z. B. auch in CATI, Face-to-Face), häufen sich gerade bei schriftlichen und Online-Befragungen sogenannte «Response-Sets» (Tendenzen von Teilnehmenden, eine Reihe von Fragen in einem bestimmten Muster zu beantworten)[20]. Bei Online-Befragungen wird dies zusätzlich durch die erhöhte empfundene Anonymität verschärft, da mit steigender Anonymität die Tendenz steigt, Items weniger ernsthaft auszufüllen und falsche oder fiktive Antworten abzugeben[20].

*Datenpunkt, der bedeutend von den restlichen Datenpunkten entfernt liegt.
**Teilnehmende, die den Fragebogen in einer Zeit komplettieren, die bei seriösem Durchlesen der Fragen und Antwortmöglichkeiten nicht plausibel ist.

Klassische Antwortmuster, die in schriftlichen Befragungen mit Rating-Skalen beobachtet werden können, sind: Response-Ranges (Verwendung nur eines bestimmten Bereichs der Skala, unabhängig vom Inhalt der Frage oder der Ausrichtung der Antwortvorgaben), Extreme Checking Style (auch Extreme Response Style[21], ERS, genannt: abwechselndes Anwählen der linken und rechten Extrempunkte einer Skala), Muster-Ankreuzer (Ankreuzen von Mustern wie z. B. Diagonalen oder Pfeilen in Tabellenfragen) und Straightliner (Null-Varianz-Antwortverhalten, d. h. Auswahl eines bestimmten Skalenpunkts, unabhängig von der Skalenbreite, -ausrichtung und Frageformulierung). Gerade Letztere sind bei unmotivierten Teilnehmenden beliebt. Jandura identifiziert in einer offenen Online-Befragung zu Mediennutzungsverhalten von Jugendlichen bei einem Viertel der Befragten ein Null-Varianz-Antwortverhalten in mindestens einer der neun beantworteten Fragen[20]. Allerdings muss hier relativiert werden, dass Straightlining unter gewissen Umständen valide ist, beispielsweise, wenn eine Item-Batterie eine hohe interne Konsistenz aufweist und alle Items in dieselbe Richtung formuliert sind[22]. Um valides Straightlining auszuschliessen, könnte ein Item pro Frageblock vor der Feldphase umgepolt werden.

Um die Qualität der Ergebnisse einer Befragung zu erhöhen, sollten Fälle mit den beschriebenen Effekten untersucht und allenfalls aus der Analyse exkludiert werden. Während dies bei einigen Effekten relativ einfach möglich ist (z. B. können Speeder anhand der Bearbeitungszeit und inkomplette Fragebögen anhand der fehlenden Antworten schnell identifiziert werden), ist für andere Effekte ein genaueres Hinsehen notwendig (siehe Tabelle 2). Der Prozess kann dabei digital mit multifaktoriellen, statistischen Prozeduren unterstützt werden. Die Entscheidung, ob ein spezifischer Fall nun als Quality Fail ausgeschlossen werden soll oder nicht, sollte jedoch durch geschulte Mitarbeitende nach der Sichtung des entsprechenden Fragebogens und nicht auf Basis einzelner Kriterien erfolgen.

Tabelle 2: Erkennen von verzerrenden Effekten im Datensatz, angelehnt an Jandura (2018) und Reuning und Plutzer (2020).

Fazit

In einem kurzen Artikel kann das Thema Datenqualität lediglich anhand ausgewählter Aspekte angeschnitten werden. Zusammenfassend ergeben sich drei essenzielle Punkte:

  1. Eine Ausrichtung der Datenqualität auf Abnehmergrupp
  2. Wesentliche Weichen für die Datenqualität werden schon vor der Feldphase gestellt.
  3. Eine Datenqualitätsanalyse und Datenbereinigung nach der Feldphase ist technisch möglich und nützlich.

Dies sind wichtige Erkenntnisse für validere Analysen, für die Kundenkommunikation, den Projektaufbau und das Branchen-Image.

Datenqualität geht zudem einher mit Themen wie Erhebungs- und Verwendungsethik, Zweckbestimmung von Daten, Panelpflege, Datenschutz und mit der Idee, auch komplexe Prozesse der Auswertungslogik, Algorithmen und Deep-Learning-Modelle so transparent wie möglich zu machen. Ein positives Wechselverhältnis von Datengebenden und -nehmenden widerspiegelt sich in einem emanzipierten und daher lohnenswerten Verständnis von Datenqualität für alle.

Literaturverzeichnis weiter unten

For English Version download pdf

Raffael Meier

Mitgründer und CTO von onlineumfragen.com und Pionier der Onlinebefragungstechnologie.

raffael.meier@onlineumfragen.com
+41 44 500 5137

Nina Gwerder

Consultant bei onlineumfragen.com

nina.gwerder@onlineumfragen.com
+41 44 500 5140

Die Autoren
Raffael Meier, MA, MSc – Mitgründer und CTO von onlineumfragen.com und Pionier der Onlinebefragungstechnologie. Er befasst sich mit gesellschaftlichen und methodologischen Aspekten von Daten und berät Kundinnen und Kunden mit dem Ziel «Empowerment».

Nina Gwerder, MA – ist Consultant bei onlineumfragen.com und spezialisiert auf die Beratung namhafter nationaler und internationaler Unternehmen rund um das Thema Online-Befragungen und deren effektiver Auswertung.

Download Artikel
Swiss Insights News #11

Institute Member von
SWISS INSIGHTS

onlineumfragen.com

Alle SWISS INSIGHTS News finden Sie hier: SWISS INSIGHTS NEWS

Literaturverzeichnis
[1] Fisher, C. W., & Kingma, B. R. (2001). «Criticality of data quality as exemplified in two disasters », Information & Management, 39(2), 109–116. https://doi.org/10.1016/S0378-7206(01)00083-0
[2] Wrong house gets torn down based on a Google Maps error. Engadget. (n.d.). Abgerufen am 17. August 2022, von https://www.engadget.com/2016-03-24-texas-wrong-house-torn-down-google-maps.html
[3] Keller, S., Korkmaz, G., Orr, M., Schroeder, A. und Shipp, S. (2017). «The Evolution of Data Quality: Understanding the Transdisciplinary Origins of Data Quality Concepts and Approaches», Annual Review of Statistics and Its Application, 4(1), S.85-108.
[4] Schmidt, C. O., Struckmann, S., Enzenbach, C., Reineke, A., Stausberg, J., Damerow, S., Huebner, M., Schmidt, B., Sauerbrei, W., & Richter, A. (2021). «Facilitating harmonized data quality assessments. A data quality framework for observational health research data collections with software implementations in R», BMC Medical Research Methodology, 21(1). https://doi.org/10.1186/S12874-021-01252-7
[5] Haug, A. (2021). «Understanding the differences across data quality classifications: a literature review and guidelines for future research», Industrial Management and Data Systems, 121(12), 2651–2671. https://doi.org/10.1108/IMDS-12-2020-0756
[6] Wang, R.Y. und Strong, D.M. (1996). «Beyond Accuracy: What Data Quality Means to Data Consumers», Journal of Management Information Systems, 12(4), S.5-33.
[7] Cannell, C. F., Miller, P. v., & Oksenberg, L. (1981). «Research on interviewing techniques», in S. Leinhardt (Ed.), Social Methodology. Jossey-Bass Publishers.
[8] Tourangeau, R., Rips, L. J., & Rasinski, K. (2000). The Psychology of Survey Response. Cambridge: Cambridge University Press. https://doi.org/10.1017/CBO9780511819322
[9] Porst, R. (2014). Fragebogen. Wiesbaden: Springer Fachmedien. https://doi.org/10.1007/978-3-658-02118-4
[10] Tourangeau, R. (2018). «The survey response process from a cognitive viewpoint», Quality Assurance in Education, 26(2), 169–181. https://doi.org/10.1108/QAE-06-2017-0034
[11] Petty, R. E., & Cacioppo, J. T. (1986). «The elaboration likelihood model of persuasion», Advances in Experimental Social Psychology, 19(C), 123–205. https://doi.org/10.1016/S0065-2601(08)60214-2
[12] Dual-process theories in social psychology. PsycNET. (n.d.). Abgerufen am 17. August 2022, von https://psycnet.apa.org/record/1999-02377-000
[13] Bogner, Kathrin und Landrock, Uta (2015). Antworttendenzen in standardisierten Umfragen. Mannheim, GESIS Leibniz Institut für Sozialwissenschaften (GESIS Survey Guidelines). https://doi.org/10.15465/gesis-sg_016
[14] Cardis, E., Richardson, L., Deltour, I. et al. (2007). «The INTERPHONE study: design, epidemiological methods, and description of the study population», Eur J Epidemiol, 22, 647–664. https://doi.org/10.1007/s10654-007-9152-z
[15] Grice, H. P. (1975). «Logic and Conversation», in P. Cole, & J. L. Morgan. (Eds.), Syntax and Semantics, Vol. 3, Speech Acts (pp. 41-58). New York: Academic Press.
[16] Levin, I. P., & Gaeth, G. J. (1988). «How Consumers are Affected by the Framing of Attribute Information Before and After Consuming the Product», Journal of Consumer Research,
[15] (3), 374. https://doi.org/10.1086/209174
[17] Berekoven, L., Eckert, W., & Ellenrieder, P. (2004). Marktforschung. Wiesbaden: Gabler Verlag. https://doi.org/10.1007/978-3-663-05734-5
[18] Menold, N., & Bogner, K. (2015). «Gestaltung von Ratingskalen in Fragebögen (Version 1.1)», GESIS Survey Guidelines, 13. https://doi.org/10.15465/GESIS-SG_015
[19] Schwarz, N. (1999). «Self-reports: How the questions shape the answers», American Psychologist, 54(2), 93–105. https://doi.org/10.1037/0003-066X.54.2.93
[20] Jandura, O. (2018). «Fake Data? Zur Trennung von sauberen und verschmutzten Daten bei selbst-administrierten Befragungsmodi», in Rössler P. & Rossman, C. (Hrsg.), Kumulierte Evidenzen. Wiesbaden: Springer VS, S. 207-223.
[21] Greenleaf, E. A. (1992). «Measuring Extreme Response Style», The Public Opinion Quarterly, 56(3), 328–351. http://www.jstor.org/stable/2749156
[22] Reunig, K. und Plutzer E. (2020). «Valid vs. Invalid Straightlining: The Complex Relationship Between Straightlining and Data Quality», Survey Research Methods, 14(5), S.439-459.

Literaturverzeichnis

Preise optimieren mit Behavioral Pricing – aber wie konkret?

Im Folgenden möchten wir Antworten auf diese Fragen geben und schicken gleich voraus, dass es wie so oft, nicht den einen Ansatz gibt, der zu verfolgen ist, sondern dass verschiedene Wege zum Ziel führen. Daher teilen wir zunächst ein paar grundlegende Erkenntnisse, die übergreifende Gültigkeit haben, bevor wir anhand eines konkreten Beispiels aus der Praxis auf spezifische Fragen, Methoden und Auswertungsansätze eingehen.

Erfolgsfaktoren der Preisforschung

Behavioral Pricing basiert auf valider Preisforschung als Grundlage für geplante Preisoptimierungen. Aus unserer Erfahrung sind hierbei drei Faktoren relevant für den Erfolg:

  1. Das richtige Kundenmodell
  2. Die Untersuchung von allen relevanten Entscheidungsdimensionen
  3. Wahl der optimalen Methode

1. Das richtige Kundenmodell

Preisforschung ist Entscheidungsprozessforschung. Möchten Sie das Entscheidungsverhalten Ihrer Kunden verstehen, prognostizieren und gestalten? Dann müssen Sie das richtige Kundenmodell wählen. Dieses ist von zentraler Bedeutung, um sicherzustellen, dass das Entscheidungsverhalten, welches die Kunden in der Marktforschung zeigen, möglichst ihrem Entscheidungsverhalten in der Realität entspricht.

Die Erkenntnisse der Verhaltensökonomie zeigen nachdrücklich auf, dass Menschen vorhersagbar irrational entscheiden. Dies heisst, dass sie nicht wie der klassische Homo Oeconomicus agieren, sondern sich von Daumenregeln (Heuristiken) leiten lassen. Thaler und Sunstein nutzen hierfür das Bild des Mr. Spock von Raumschiff Enterprise, der rational und stabil wie ein Computer entscheidet – im Gegensatz zum in der Realität zumeist anzutreffenden Homer Simpson, der eher irrational und mit wechselnden Präferenzen unterwegs ist.

Sie fragen sich nun vermutlich: Warum ist das Kundenmodell so wichtig für valide Preisforschung? Ausschlaggebend ist doch vielmehr, die richtigen Fragen zu stellen und das richtige Testmaterial zu präsentieren. Unserer Erfahrung nach wird Ihnen dies jedoch nur gelingen, wenn Sie das richtige Kundenmodell anwenden. Zur Untermauerung dieser Aussage zeigen wir im Folgenden eine Reihe von verhaltensökonomischen Erkenntnissen und die zugehörigen Implikationen für die Preisforschung auf:

Abbildung 1: Verhaltensökonomische Erkenntnisse und Implikationen für Preisforschung

2. Die Untersuchung von allen relevanten Entscheidungsdimensionen

Um sowohl Input für die Ausgestaltung und Kommunikation konkreter Leistungsangebote zu generieren, als auch Erkenntnisse zum Pricing zu gewinnen, hat es sich bewährt, alle relevanten Dimensionen des Entscheidungsprofils der Kunden zu erheben. Die hieraus gewonnenen Erkenntnisse helfen auch wesentlich bei der Interpretation der noch zu diskutierenden Preisakzeptanz.

Im Einzelnen geht es um drei Dimensionen, die das Entscheidungsprofil der Kunden ausmachen:

Abbildung 2: Dimensionen Entscheidungsprofil

3. Wahl der optimalen Methode

Wie bereits erwähnt, sollte das Entscheidungsverhalten der Kunden in der Marktforschung möglichst ihrem Entscheidungsverhalten in der Realität entsprechen.

Da die Auswahl der passenden Methode nicht generisch beantwortet werden kann, möchten wir an dieser Stelle die grundsätzliche Ebene verlassen und auf ein konkretes Projektbeispiel zu sprechen kommen. Wir gehen jedoch davon aus, dass einzelne Erkenntnisse auch auf andere Branchen bzw. Produkte übertragen werden können.

Fallstudie: Preisoptimierung von Motorfahrzeugtarifen

Mit einem Prämienvolumen von knapp 6 Mrd. CHF (1) stellt die Motorfahrzeugsparte (MFZ) das grösste Segment in der Sachversicherung dar. Preisoptimierungen lohnen sich daher allein schon wegen des Anteils der Sparte am Prämienvolumen eines jeden Sachversicherers. Es gibt jedoch noch weitere Gründe, warum sie für Behavioral Pricing Ansätze ein lohnendes Anwendungsgebiet darstellt:

(1) Gebuchte Haftpflicht- plus Kaskoprämien in 2020 (Quelle: FINMA «Bericht über den Versicherungsmarkt 2020»

  1. Das intangible, auf die Zukunft gerichtete Leistungsversprechen von Versicherungen erschwert Kunden die Entscheidungsfindung. Um zu vermeiden, dass sie sich zu schnell auf den Preis fokussieren, lohnt es sich, das Entscheidungsverhalten differenzierter zu untersuchen, um Ansatzpunkte für Differenzierungen jenseits des Preises zu identifizieren (siehe Ausführungen oben zur Motivation).
  2. Die MFZ-Sparte ist weitgehend ausgereift und kann sich kaum über Innovationen bei ihren Kunden positionieren. Innovationen sind vor allem in Bezug auf Themenfelder wie E-Mobilität und autonomes Fahren zu erwarten. Je reifer jedoch eine Branche, desto grösser ist das Risiko von Preiskämpfen, die aus der Branche heraus in Ermangelung anderer, naheliegender Alternativen initiiert werden.
  3. Bei Vertriebsmitarbeitern herrscht häufig die Wahrnehmung vor, die Mehrheit der Kunden sei sehr preissensitiv. Dies steigert das Risiko, dass der Preis zu stark in den Mittelpunkt des Vertriebsansatzes rückt. Verstärkt wird dieses Risiko durch das Bestreben, Motorfahrzeugversicherungen möglichst effizient zu vertreiben, um das Verhältnis zwischen Zeiteinsatz und zu erhaltender Provision zu optimieren.

Diese Ausgangslage war uns bewusst, als wir die Anfrage zur Optimierung eines MFZ-Tarifs erhielten. Umso wichtiger war es uns, die Befragten einerseits mit einer möglichst realistischen Entscheidungssituation zu konfrontieren, andererseits den Rahmenfragebogen ausreichend ausführlich zu gestalten, um das Entscheidungsverhalten der Befragten möglichst umfassend zu erheben.

Die Schaffung einer möglichst realistischen Ausgangssituation bedeutet in diesem Fall, die Berechnung realitätsnaher Prämien auf Basis ausgewählter, tarifierungsrelevanter Merkmale. Selbst wenn man sich auf die zentralen Kriterien wie u. a. Fahrzeugalter, Neuwagenpreis, Alter/Geschlecht/Nationalität des Fahrers fokussiert, ergibt sich aufgrund der Vielzahl an Ausprägungen je Merkmal und Kombinationsmöglichkeiten sehr rasch ein komplexes Modell. Auf Basis des Inputs des Kunden haben wir daher ausserhalb unserer üblichen Befragungssoftware ein separates Tarifierungstool programmiert, welches uns ermöglichte, die Befragten mit realistischen Preisen zu konfrontieren.

Die folgende Abbildung 3 gibt einen Eindruck vom Tarifierungstool, wie es den Kunden in der Befragung präsentiert wurde.

Abbildung 3: Überblick Tarifierungstool

Um den Entscheidungsprozess der Kunden möglichst differenziert zu untersuchen, vollzogen wir den eigentlichen Preistest in mehreren Schritten, wie in der folgenden Abbildung 4 dargestellt.

Abbildung 4: Ablauf Preistest

Auf Basis der Befragungsergebnisse konnten Empfehlungen zu den folgenden Themenfeldern abgegeben werden:

Anzahl der empfohlenen Produktlinien

  1. Die Verteilung der Wahlanteile in einem realistischen Umfeld belegt den Bedarf an zwei Produktlinien für einen bedürfnisorientierten Vertriebsansatz.

Defaults

  1. Vor dem Hintergrund eines häufig geringen Produktwissens bieten sich sinnvolle Defaults an, um sowohl dem Kunden als auch dem Vertrieb die Entscheidung zu erleichtern.
  2. Die geringen Zu- oder Abwahlraten haben grundsätzlich die geplante Tarifzusammenstellung belegt.
  3. Aufgrund der vermehrten Zuwahl einzelner Leistungen und Produktlinien waren weitere Optimierungen bei der Zusammenstellung der Tarife möglich.
  4. Aufgrund des Vergleichs von ungestützt erhobener Preisakzeptanz und faktischem Produktwert gemäss Tariftool empfahlen wir einen Baustein nicht in den Default zu integrieren.

Pricing Zusatzbausteine

  1. Anhand der aktiven Zu- bzw. Abwahlraten bei den Zusatzbausteinen konnten je Baustein konkrete Preisempfehlungen ausgesprochen werden.
  2. Auf diese Weise konnte die Preisakzeptanz der Kunden – jenseits der aktuell angesetzten, technischen Preise – deutlich besser abgeschöpft werden.
  3. Die Steigerungen variierten zwischen 10% und 40% auf Ebene einzelner Bausteine.

Strategische Empfehlungen

  1. Anhand der Ergebnisse aus dem Rahmenfragebogen sowie der qualitativen Vorstudie konnten weitere, grundlegende strategische Empfehlungen für einen erfolgreichen Vertriebsansatz abgeleitet werden.
  2. Hierzu gehörte z. B. die Positionierung des Angebots über Use Cases, die den Kunden mit seinen Bedürfnissen direkter ansprechen als dies bisher bei den teilweise eher technisch dargestellten Leistungen der Fall ist.
  3. Insgesamt sollte die Positionierung des Angebots verstärkt über Leistungsaspekte erfolgen, um das Thema Preis in den richtigen Kontext zu setzen.

Fazit

Preisoptimierungen mit Behavioral Economics bauen im Kern darauf auf, dass die Kunden in der Befragung möglichst dieselben Entscheidungsregeln anwenden wie in der Realität. Dies ist eine zentrale Voraussetzung für valide Ergebnisse bei einem so sensiblen Thema wie der Ableitung von Preisempfehlungen. In Bezug auf Motorfahrzeugversicherungen erfordert dies die Modellierung realistischer Prämien als Basis für die Erhebung realitätsnaher Wahlentscheidungen. Je nach Erkenntnisinteresse können unterschiedliche Produkt- und Preismonaden zur Ableitung von Optimierungsempfehlungen getestet werden. Gerade in reifen, wettbewerbsintensiven Märkten lassen sich mit diesem Ansatz noch Spielräume zur Abschöpfung der Preisakzeptanz auf Kundenseite konkretisieren.

Dr. Patricia Lüer

Director intervista

patricia.lueer@intervista.ch
+41 31 511 39 30

Die Autorin
Dr. Patricia Lüer ist Director bei intervista. Sie hat mehr als 25 Jahre Beratungs- und Marktforschungserfahrung in verschiedensten Branchen, B2B wie B2C. Ihr Fokus liegt auf der Analyse und Gestaltung komplexer Entscheidungsprozesse auf Grundlage verhaltensökonomischer Erkenntnisse.

Download Artikel
Swiss Insights News #10

Institute Member von
SWISS INSIGHTS

www.intervista.ch

Alle SWISS INSIGHTS News finden Sie hier: SWISS INSIGHTS NEWS

SWISS INSIGHTS lanciert DATA FAIRNESS Label

Im Rahmen eines Hybrid-Events am 12. Januar von SWISS INSIGHTS zum Thema «Ethik & Data Insights» stellten sich renommierte Persönlichkeiten den herausfordernden Fragen rund um das Thema «Ethik & Data Insights – eine ungelöste Herausforderung?». Die Digitalisierung öffnet der Wirtschaft und der Gesellschaft neue Möglichkeiten. Daten können nicht nur in Echtzeit gesammelt, sondern auch für strategische Zwecke verwendet werden. Das wirft unweigerlich Fragen nach dem ethischen Umgang mit den Daten auf.

SWISS INSIGHTS präsentiert mit dem Label DATA FAIRNESS einen Lösungsansatz.

Digitale Ethik ist mehr als nur ein Trend – sie ist wirtschaftlich und gesellschaftlich von hoher Relevanz. Welche Werte hinter einer Software, hinter KI oder Applikationen stecken, ist von zentralem Interesse. Unternehmen müssen deshalb eine Strategie entwickeln, wie sie das Thema angehen und behandeln. Das Schlagwort ist Transparenz. Um dieses wichtige Thema zu diskutieren, lud der Verband SWISS INSIGHTS Expertinnen und Experten ins Landesmuseum Zürich.

Data Science und Marktforschung: Braucht es einen Rahmen für digitales Vertrauen?

Monique Morrow, u.a. President and co-founder of Humanized Internet, erläuterte, weshalb der ethische Umgang mit Daten im Zusammenhang mit der Marktforschung relevant ist. Die Schnittmenge zwischen Data Science und Marktforschung wirft mehrere Fragen im Zusammenhang mit dem Umgang mit Daten auf. Data-Mining-Techniken haben durchaus das Potenzial, Vertrauen und Privatsphäre zu untergraben. Unternehmen müssen sich Gedanken machen, wie eine faire Nutzung und ein fairer Umgang mit Daten umgesetzt werden können. Monique Morrow warf die Frage auf, ob wir einen Rahmen für digitales Vertrauen und eine faire Nutzung von Daten entwickeln können.

Wie gelingt Unternehmen ein fairer Umgang mit Daten ohne Innovation zu verhindern?.

Cornelia Diethelm, Expertin für Digitale Ethik und Gründerin des Centre for Digital Responsibility, beleuchtete kritische Fragen, die sich Unternehmen im Umgang mit Daten stellen müssen. Unternehmen nutzen Big Data und neue Technologien, um Kosten zu reduzieren und die Customer Experience zu verbessern. Viele Menschen sehen die Vorteile der Digitalisierung. Gleichzeitig fürchten sie sich vor dem Kontrollverlust an den eigenen Daten sowie vor manipulativen Praktiken von Unternehmen. Es stellt sich die grosse Frage: Wie können Unternehmen darauf reagieren? Und welche der neuen Möglichkeiten sollten sie bewusst nicht nutzen, weil sie mit bestehenden Werten wie Fairness, Schutz der Privatsphäre oder Nichtdiskriminierung in Konflikt geraten?

Unternehmen, die am digitalen Wandel partizipieren wollen, müssen sich früher oder später mit dem Thema Transparenz und Digitale Ethik auseinandersetzen. SWISS INSGHTS präsentiert mit dem Label DATA FAIRNESS ein Instrument, welches Unternehmen hilft, sich strukturiert mit Daten und Datensätzen zu befassen und ihre Prozesse transparent zu dokumentieren. Firmen, die das Label tragen, bekennen sich zu einem transparenten Umgang mit Daten und motivieren ihre Mitarbeitenden damit, sich aktiv mit digitaler Ethik zu befassen.

Mehr zum Anlass: https://swiss-insights.ch/insights-events/ethikdatainsights/

Zum Label

Das Label Data Fairness by SWISS INSIGHTS steht sowohl inländischen wie auch ausländischen Unternehmen zur Verfügung.

Mit dem Label zeigen Sie, dass sich Ihr Unternehmen oder Ihre Abteilung für den transparenten und verantwortungsvollen Umgang mit der Bearbeitung und Analyse von grossen Datenmengen verpflichtet.

Mehr dazu: Website und Flyer

Kontakt
info@swiss-insights.ch
+41 350 19 60