Jederzeit auskunftsfähig: Die Vorteile eines kontinuierlichen Marken- bzw. Werbetrackings

Ein falsch gewähltes Kampagnensujet, ein ungünstig formulierter Tweet oder eine strategische Änderung der Markenausrichtung – schon öffnet sich die Büchse der Pandora für einen potenziellen Imageschaden. Doch wie lange hält ein solcher Imageschaden an? Wann ist die Marke wieder auf wünschenswertem Niveau?

Oder von der erfreulichen Seite betrachtet: Die neue Kampagne ist ein wahrer Erfolg, die Kund:innen sind glücklich, neue Konsument:innen und neue Käufer:innen sind gewonnen. Wie lange kann eine Marke von einer erfolgreichen Kampagne profitieren?

Natürlich liefern Absatzzahlen oftmals Informationen über die aktuelle Performance einer Marke. Jedoch ist die reine Betrachtung von Verkaufs- und Marktanteilen meist auch mit Wissenslücken verbunden, da sie oft mit Promotionen einhergehen, welche auch kontraproduktiv für das Markenimage sein können. Daher hat LINK in Kooperation mit der Universität Luzern und dem Institut für Marketing & Analytics (IMA) im September 2021 den Swiss Brand Observer (SBO) lanciert. Insgesamt erhebt der SBO 26 relevante Grössen zur Markenwahrnehmung (z.B. KPIs zum Purchase Funnel, Image-Dimensionen, Zufriedenheit und Weiterempfehlung) und ergänzt diese mit der aktuellen Online- und Offlinewerbewahrnehmung. Somit ergibt sich ein umfassendes, kundenbezogenes Abbild der Marke – und dies wochenaktuell. Die Wahrnehmung medialer Ereignisse – sei es in Form von Kampagnen oder Medienberichten – kann praktisch live mitverfolgt werden. Einerseits wird evaluiert, ob diese wahrgenommen werden, und andererseits inwiefern diese einen möglichen Einfluss auf andere Markenattribute haben. Dies ist insbesondere für die jeweiligen Geschäftsbereiche Marketing, Strategie und Branding relevant, um die eigene Marke besser zu beobachten, zu steuern und zu entwickeln. Zudem haben Kundinnen und Kunden nicht nur Einblick in ihre eigene Marke, sondern auch in alle anderen erhobenen Marken im SBO. Dies erlaubt ihnen, ihre Analysen nicht nur in ihrem «engen» Konkurrenzfeld zu betrachten, sondern sie haben nun die Möglichkeit, sich jeweils mit dem «Best In Class» zu vergleichen.

Ein wissenschaftlich validiertes Brand Tracking

Dem SBO liegt ein in der Schweiz einzigartiges Studiendesign zu Grunde: LINK hat dieses in Kooperation mit der Universität Luzern und dem Institut für Marketing & Analytics konzipiert. Der SBO basiert auf dem seit vielen Jahren etablierten Customer-Based Brand Equity-Ansatz (CBBE), welcher von vier Dimensionen ausgeht (Aaker, 1996 | Keller, 1993):

Die Dimension Markenbekanntheit bezeichnet die Verankerung der Marke bei Konsumentinnen und Konsumenten, welche wiederum auch die Wahrnehmung und Einstellung zur Marke beeinflussen kann (Aaker, 1996). Hingegen bezeichnet die Markenloyalität das positive Denken über die Marke und ob infolgedessen die Marke wiederholt genutzt wird (Keller, 1993). Loyale Konsumentinnen und Konsumenten sind auch bereit, einen Aufpreis für diese Marke zu bezahlen (Mehrzahlungsbereitschaft). Image-Komponenten einer Marke werden wiederum in der Dimension Markenassoziationen/Markenimage erhoben. Aus diesen ziehen Konsument:innen resp. Kund:innen ihren emotionalen Nutzen (Markenpersönlichkeit) und Assoziationen werden in den
Köpfen geschärft, damit die Zielgruppe die Marke von anderen Marken differenzieren kann. Dies ist unabdingbar für eine Marke, wenn sie nachhaltig erfolgreich sein will (Aaker, 1996). Abgrenzend zu den Assoziationen/zum Image bezeichnet die Markenqualität die Wahrnehmung der Qualität einer Marke bezogen auf deren produktbezogene, funktionale und erlebnishafte Eigenschaften (Keller 1993). Auch neuere Forschungsarbeiten zeigen, dass CBBE-Grössen auf Kundenakquisition, Kundenbindung oder Erhöhung der Gewinnmargen einen Einfluss haben (Stahl et al., 2012 | Slotegraaf & Pauwels, 2008). Zudem wurde der SBO in einer kürzlichen Untersuchung empirisch validiert (Naan et al., 2023).

Grafik 1: «Customer-Based Brand Equity» als Grundlage für die Konzeptualisierung des Swiss Brand Observers

Um genügend valide Datenpunkte für eine Marke zu erhalten, erhebt LINK wöchentlich in acht Segmenten insgesamt n=2’000 Interviews resp. n=250 Interviews pro Woche im qualitativ hochwertigen LINK Panel. Dies summiert sich auf über 104’000 Interviews total und über 13’000 Interviews pro Marke im Jahr. Somit ist es möglich, die Markenperformance über das ganze Jahr genau zu analysieren und schnell zu handeln, sofern (un)erwünschte Bewegungen ersichtlich werden.

Damit die eigene Marke, das Konkurrenzumfeld oder der jeweilige «Best In Class» Brand einfach und schnell analysiert werden kann, sind die Daten in einem intuitiven Dashboard – mit diversen Filtermöglichkeiten wie Alter, Geschlecht, Mediennutzung etc. – abrufbar. «So besteht erstmals die Möglichkeit, Marketingausgaben der zeitlichen Entwicklung gegenüberzustellen und die Massnahmeneffektivität in einem modernen Ansatz zu analysieren. Gleichzeitig schafft das Tool Transparenz, da das dynamische Wettbewerbsumfeld bei den meisten Marken bisher weniger miteinbezogen wurde», erklärt dazu Prof. Dr. Reto Hofstetter, Professor für digitales Marketing am IMA. Ein weiterer Vorteil des Dashboards: Historische Daten seit September 2021 sind inkludiert und neue Daten werden mit wenig Aufwand hochgeladen.

Was Credit Suisse und Toblerone (nicht) gemeinsam haben

Ein konkretes Beispiel aus dem Swiss Brand Observer aus den Monaten Januar 2023 bis und mit Mitte Mai 2023 (Stichtag: 14. Mai 2023): Wir erkennen in Grafik 2 einen signifikanten Anstieg (dargestellt mit einem Pfeil nach oben) der konsolidierten Medienwahrnehmung (Konsolidierung der Online- und Offline-Werbewahrnehmung + Medienberichte) sowohl bei Credit Suisse als auch bei Toblerone im März 2023.

Grafik 2: Auszug aus dem Swiss Brand Observer (15-79 Jahre, gesamte Schweiz inkl. Tessin). Konsolidierte Medienwahrnehmung bezeichnet die Konsolidierung von Online- und Offline-Werbewahrnehmung sowie Wahrnehmung von Medienberichten.

Was ist passiert? Die effektive Übernahme der CS durch die UBS wurde im März offiziell, und auch Toblerone geriet in das Fadenkreuz der Medien, da publik wurde, dass nun sowohl das Matterhorn als auch die Aufschrift «of Switzerland» aufgrund des neuen Produktionsstandorts Slowakei schwinden müssen. Der wahrgenommene mediale Anstieg der CS erreichte im April seinen Höhepunkt und sank im Mai wieder signifikant, während bei Toblerone ein kontinuierlicher Rückgang der Werbewahrnehmung festzustellen ist.

Doch was bedeuten solche negativen Schlagzeilen für eine Marke? Bei beiden Marken lassen sich zwei komplett verschiedene Szenarien erkennen.

Hierfür wird das Beispiel der Markengrösse Grundeinstellung zur Marke (besonders positive Wahrnehmung) genutzt (Grafik 3). Während vor der medialen Berichterstattung ca. 30 % der Schweizer Bevölkerung Toblerone als besonders positiv wahrgenommen haben, sinkt dieser Anteil signifikant auf 22 % und bleibt bis Mitte Mai unverändert – trotz des signifikanten Rückgangs der Werbewahrnehmung. Bei der CS sehen wir zwar ebenfalls einen leichten Rückgang der Grundeinstellung zur Marke, jedoch war das Niveau bereits vor der Bekanntgabe der Übernahme durch die UBS vergleichsweise tief, sprich: Die CS performt zwar etwas schlechter als zuvor, jedoch ist das (negative) absolute Potenzial für Toblerone in dieser Dimension viel grösser. Da auch andere KPIs wie die Qualitätswahrnehmung oder Mehrzahlungsbereitschaft für beide Marken in diesem Zeitraum zurückgehen, haben beide Brands offensichtlich aktuell grössere Schwierigkeiten darin, ihre Marktposition bzw. -penetration auf dem Niveau vor März zu halten. Im Swiss Brand Observer kann des Weiteren verfolgt werden, ob diese Performance-Rückgänge langfristiger Natur sind und wie gross der Verlust an Markenattraktivität ist.

Grafik 3: Repräsentativer Auszug aus dem Swiss Brand Observer (15-79 Jahre, gesamte Schweiz inkl. Tessin). Die Grundeinstellung zur Marke bezeichnet die positive Wahrnehmung einer Marke.

Fazit

Für Marketeers, Brand Manager:innen sowie Strateg:innen ist es heute unabdingbar, schnell auf Veränderungen reagieren zu können – sowohl bei positiven als auch bei negativen Wahrnehmungen der Marke. Im Omnichannel-Zeitalter sind Marken einer bis dato nicht dagewesenen Wahrnehmungsintensität unterworfen, sei es durch Werbung, Medienberichte oder in den sozialen Medien. Je nach medialem Ereignis kann sich folglich in einem Fall beispielsweise die Grundeinstellung zur Marke ändern, während die Qualitätswahrnehmung stabil bleibt.

Der Swiss Brand Observer knüpft genau hier an: Veränderungen wahrnehmen und gleichzeitig verstehen, auf welche Veränderungen reagiert werden sollte. Ein jährliches Tracking wird diesem Anspruch oftmals nicht gerecht, und selbst ad hoc Projekte direkt nach einer negativen Berichterstattung sind ebenfalls zeitlich eingeschränkt, da das unmittelbare «Zuvor» nicht erfasst und das «Danach» lediglich während der Feldzeit evaluiert wird. Die Wissenslücke, wie lange ein Brand an einem potenziellen Imageschaden leidet oder wie lange eine Marke von einer gelungenen Kampagne profitiert, kann mittels eines kontinuierlichen Brandtrackers wie dem Swiss Brand Observer also geschlossen werden.

Literaturverzeichnis weiter unten

Laura Colledani

Head of Healthcare Research and Data Products LINK

laura.colledani@link.ch
+41 41 367 72 25

Die Autorin
Laura Colledani ist Head of Healthcare Research and Data Products bei LINK und hat sich auf Datenprodukte, Markenbeobachtung sowie Consulting und Insight-Storytelling spezialisiert. Dank ihrer umfangreichen Expertise generiert sie immer wieder neue innovative Lösungen und wertvolle Erkenntnisse für die Entwicklung von Marken.

Download Artikel
Swiss Insights News #5

Institute Member von
SWISS INSIGHTS

www.link.ch

Alle SWISS INSIGHTS News finden Sie hier: SWISS INSIGHTS NEWS

Literaturverzeichnis
Aaker, D.A. (1996). Measuring brand equity across products and markets. California Management Review, 38 (3).
Keller, K.L. (1993). Conceptualizing, measuring, and managing customer-based brand equity. Journal of Marketing, 57 (1).
Naan, L., Finken, D., Zogaj A., Reiser, S., & Hofstetter, R. (2023). What Do Consumers Think About Your Brand? Just Ask!. Marketing Review St. Gallen, 1/2023.
Slotegraaf, R., & Pauwels, K. (2008). The impact of brand equity and innovation on the long-term
effectiveness of promotions. Journal of Marketing Research, 45 (3).
Stahl, F., Heitmann, M., Lehmann, D. R., & Neslin, S. A. (2012). The impact of brand equity on customer acquisition, retention, and profit margin. Journal of Marketing, 76 (4).

Dirty on the go? Datenqualität in Online-Surveys zwischen PC und Mobilgeräten

Das Internet in der Tasche mit sich tragen – was vor 25 Jahren eine utopische Vorstellung war, ist heute trivial. Die Einführung des Smartphones hat unser Leben verändert, nicht zuletzt auch die Markt- und Meinungsforschung.

Mit immer besseren Internetverbindungen, grösseren Bildschirmen und einer schnellebigeren Gesellschaft mit permanenter Aufmerksamkeitsknappheit[5] stieg das Bedürfnis im letzten Jahrzehnt stark an, Umfragen auch auf Mobilgeräten anbieten und ausfüllen zu können. Diese erhöhte Nachfrage mobiler oder zumindest mobilkompatibler Umfragen schafft nicht nur neue Herausforderungen für das Design und die Handhabung von Onlineumfragen, sondern muss auch hinsichtlich Datenqualität differenziert betrachtet werden.

Anhand anonymisierter Meinungsdaten einer Kundenbefragung eines grossen Schweizer Retailers, die 2014 lanciert wurde und seither täglich neue Rückläufe verzeichnet, analysieren wir die Entwicklung der mobilen Teilnahmen und deren Auswirkung auf die Datenqualität.

Datenqualität – Was ist das eigentlich?

70 Millionen Suchergebnisse bei Google demonstrieren die Relevanz des Begriffs “Data Quality” eindrücklich. Während im Alltag der Begriff “Datenqualität” häufig mit der Richtigkeit (Präzision) von Daten gleichgesetzt wird, ist Datenqualität in der Markt- und Meinungsforschung komplexer. Hier stehen am Ende der Datenverarbeitung Auftraggebende oder Forschende als Consumer der Daten. Deshalb ist es besonders wichtig, zu verstehen, dass Datenqualität aus Consumer-Sicht oft über die Präzision von Werten hinausgeht und auch Aspekte wie beispielsweise Glaubwürdigkeit, Relevanz, Vollständigkeit, Interpretierbarkeit, Konsistenz und Zugänglichkeit von Daten für Consumer berücksichtigt[18]. Relevanz zum Beispiel umfasst, dass Daten für ihren beabsichtigten Zweck tatsächlich geeignet sind, denn eine schlechte Datenqualität kann zu fehlerhaften Entscheidungen und ineffizienten Geschäftsprozessen führen, während eine hohe Datenqualität eine fundierte Entscheidungsfindung, bessere Geschäftsprozesse und letztendlich bessere Geschäftsergebnisse unterstützt.

Datenqualität, die in der Literatur mit zahlreichen verschiedenen Modellen beschrieben wird[6], kann durch geeignete Massnahmen optimiert werden. Einerseits vor der Feldphase, mittels elaboriertem Sampling, stringenter Fragebogenkonzeption und Pretesting. Andererseits in der Analyse und der technischen Bereinigung der bereits gewonnenen Daten. Hinzu kommen Meta-Aspekte der Datenqualität wie Passung der Daten zur Forschungsfrage, Prozesstransparenz, faire Datengewinnung oder proaktiver Datenschutz, die Empowerment für Kundinnen und Kunden bewirken[10].

Fallstudie: Kundenbefragung eines grossen Schweizer Retailers

Unsere Analyse erhebt erstmals a) eine durchmischte, reale Zielgruppe (Kundinnen und Kunden eines Retailers) mit b) grosser Datenmenge c) für die Schweiz und hebt sich damit deutlich von bisherigen Studien ab. Sie orientiert sich methodologisch am Vorgehen von Schlosser und Mays[13], die 2018 den Einfluss von mobilen Teilnahmen auf die Datenqualität an einer Gruppe von 820 deutschen Studierenden untersuchten.

Unsere Analyse greift auf vollständig anonymisierte Daten der Kundenbefragung eines Schweizer Retailers zurück, die 2014 in einem Unternehmensbereich lanciert und anschliessend sukzessiv auf weitere Unternehmensbereiche ausgeweitet wurde. Stand Mai 2023 lagen 345’000 Umfragerückläufe mehrsprachig (de, fr, it) schweizweit vor. Der Fragebogen enthält 6 Fragen. Darunter befinden sich eine Frage zur Weiterempfehlungsbereitschaft, eine Tabelle mit 5 Items und elfstufiger Likert-Skala, eine Frage mit offener Textantwort und zwei Ja-Nein-Fragen. Für die Beantwortung stehen die im Internet verbreiteten Radiobuttons und Textfelder zur Verfügung. Die mittlere Bearbeitungszeit beläuft sich auf rund 2 Minuten. Es werden keine soziodemografischen Daten erhoben. Als Befragungssoftware wird die Umfrageplattform von onlineumfragen.com genutzt. Die Kundinnen und Kunden werden in einem mixed-mode Verfahren via E-Mail (ca. 95%) und SMS eingeladen (ca. 5%).

Entwicklung der Relevanz mobiler Teilnahmen 2014 bis 2023

In unserem Sample stieg der Anteil der mobi-len Teilnahmen, gemessen über Browser Agent Strings und Bildschirmgrösse, seit 2014 stetig. Mobile Teilnahmen haben sich in der Zeit von 2014 bis 2023 mehr als verdreifacht.

Eine Abschwächung der Entwicklung in den letzten fünf bis sechs Jahren könnte mit einer Sättigung der Zielgruppe zu tun haben: Wer potenziell mobil teilnehmen möchte, verfügt nun auch über die Möglichkeit.

Bild 1: Anteil mobile Teilnahmen Kundenzufriedenheitsbefragung im Retail-Sektor, 2014 bis 2023

Auswirkungen des mobilen Modus auf die Datenqualität

Um Datenqualität in konkreten Aspekten zu messen, wurde ein Subsample aus insgesamt 46’581 aktuellen Teilnahmen herangezogen. Die Eingrenzung erfolgte nach Datum jünger als 01.01.2022. Folgende Kriterien der Datenqualität wurden untersucht:

  1. Reaktionszeit zur Umfrage-Einladung
  2. Bearbeitungszeit für eine Frage
  3. Bearbeitungszeit ganze Umfrage
  4. Abschlussrate
  5. Item nonresponse
  6. Straightliner
  7. Extrem Response Style (ERS)
  8. Länge der Antworten auf offene Fragen

Benötigen mobile Teilnehmende mehr Zeit?

Zunächst wurde die Reaktionszeit zur Umfrage-Einladung ermittelt. Sie wurde über die Differenz des Zeitstempels der Einladung zur Umfrage (Versandzeitpunkt Einladungs-E-Mail) zum Zeitstempel des Aufrufs der Umfrage (Klick auf Umfragelink) berechnet und auf Ausreisser bereinigt, indem nur Teilnahmen, die innert 7 Tagen ab Einladung erfolgten, berücksichtigt wurden.

Da die Teilnehmenden auf Mobilgeräten daran gewöhnt sind, ihr Mobiltelefon ständig bei sich zu tragen und erreichbar zu sein, gehen wir davon aus, dass diese Befragten schneller reagieren als Befragte, die die Einladung über ihren PC erhalten (Hypothese 1).

Auf Mobilgeräten betrug die mittlere Reaktionszeit 13 Stunden (M=13.15; SD=25.43; nmob=23’685), auf Nichtmobilgeräten 22.75 Stunden (M=22.75; SD=34.26; npc=20’481), die Abweichung ist gemäss Welch-Test t(37137)=32.86 signifikant mit p<0,001 und die Effektstärke mit Cohen’s d=0.32 entspricht einem mittleren Effekt.

Wurden zusätzlich Teilnahmen zwischen 7 und 14 Tagen nach Einladung berücksichtigt, ergab sich mobil eine mittlere Reaktionszeit von 17.5 Stunden (M=17.53; SD=40.11; nmob=24’169), auf Nichtmobilgeräten 31 Stunden (M=31.09; SD=53.81; npc=21‘335), die Abweichung ist gemäss Welch-Test t(38947)=30.08 signifikant mit p<0,001 und die Effektstärke mit Cohen’s d=0.29 zeigt einen knapp mittleren Effekt.

Die Teilnahmen durch Personen, die Mobilgeräte für die Umfrage nutzen, erfolgen also im Mittel rund 9.6 (resp. 13.6) Stunden früher und damit deutlich näher am Zeitpunkt der Einladung (Hypothese 1 bestätigt). Dies könnte je nach Umfrage einen Einfluss auf Themen wie Erinnerungsleistung, Teilnahmemotivation oder die Emotionalität der Rückmeldungen haben.

Die mittlere Beantwortungszeit für eine Frage wurde als Differenz zwischen dem Zeitpunkt der abgeschlossenen Anzeige im Browser und dem Klicken auf den Button “Speichern – nächste Frage” bei einer Tabellenfrage bestehend aus 5 Items mit elfstufiger Likert-Skala zur Zufriedenheit bestimmter Aspekte des Einkaufserlebnisses gemessen. Die Frage wurde mobil und nicht mobil methodologisch identisch präsentiert und nur im Seitenverhältnis der Tabelle, der Breite und der Schriftgrösse im Sinne einer responsiven Darstellung mobil optimiert. Für die mobilen Teilnahmen rechnen wir mit einer erhöhten Beantwortungszeit für komplexere Tabellenfragen[4], da diese mobil schwieriger zu erfassen sind, die mobile Befragungssituation oft konzentriertes Beantworten erschwert, Fragen etwas weniger leicht zu lesen sind und die technische Erfassung der Antworten (Touchscreen) etwas anspruchsvoller und fehleranfälliger ist (Hypothese 2).

Das arithmetische Mittel der Bearbeitungszeit wurde auf Ausreisser bereinigt (Zeit > 10 Sekunden und < 180 Sekunden) und liegt bei den mobilen Teilnahmen bei 40 Sekunden (M=40.09; SD=23.01; nmob=20’333), bei den nicht mobilen Geräten bei 36 Sekunden (M=35.70; SD=20.53; npc=19’402).

Die Abweichung ist gemäss Welch-Test t(39555)=20.09 signifikant mit p<0,001 und die Effektstärke mit Cohen’s d=0.2 zeigt einen kleinen, aber vorhandenen Effekt. Die Bearbeitungszeit ist auf Nichtmobilgeräten etwas geringer (Hypothese 2 bestätigt).

Die Bearbeitungszeit für die ganze Umfrage wurde aus der Differenz der Anzeige der ersten Frage am Bildschirm und des Klickens auf den Button “Speichern” bei der letzten Frage berechnet.

Weil das Ausfüllen einer Umfrage über Mobilgeräte mühsamer und störanfälliger sein kann und auch die mobile Befragungssituation in der Regel mehr Ablenkungen ausgesetzt ist, könnte die Gesamtbearbeitungszeit mobil höher ausfallen. Andererseits könnte durch genau diese situativen Faktoren die Motivation, die Umfrage elaboriert “in Ruhe” und genau auszufüllen, abgeschwächt sein, und es findet vermehrt eine schnellere, oberflächlichere kognitive Verarbeitung statt, speziell bei Fragen, die sich nicht mit dem individuellen inhaltlichen Feedback-Kern decken und eher als Ballast empfunden werden. Daher vermuten wir in Abwägung dieser Überlegung für die mobilen Teilnahmen eine etwas kürzere Gesamtbearbeitungszeit (Hypothese 3).

Das arithmetische Mittel der Gesamtbearbeitungszeit wurde auf Ausreisser bereinigt (Zeit > 10 Sekunden und < 300 Sekunden) und liegt bei den mobilen Teilnahmen bei 118 Sekunden (M=118.17; SD=63.68; nmob=17’435), bei den nicht mobilen Geräten bei 116 Sekunden (M=115.73; SD=65.40; npc=16’915).

Die Abweichung ist gemäss Welch-Test t(34237)=3.50 signifikant mit p<0,001 und die Effektstärke mit Cohen’s d=0.038 zeigt einen sehr kleinen Effekt. Die Bearbeitungszeit ist auf Mobilgeräten somit minimal länger.

Ein spannendes Bild zeigt sich bei einer weniger starken Bereinigung von Ausreissern (Zeit > 10 Sekunden und < 3600 Sekunden). Dann liegt die Gesamtbearbeitungszeit bei den mobilen Teilnahmen bei 173 Sekunden (M=172.50; SD=237.03; nmob=19’619), bei den nicht mobilen Geräten bei 185 Sekunden (M=184.69; SD=256.90; npc=19’518). Diese Abweichung ist gemäss Welch-Test t(38851)=4.88 signifikant mit p<0,001 und die Effektstärke mit Cohen’s d=0.05 zeigt einen kleinen Effekt, aber nun dauern die PC-Teilnahmen länger. Dies könnte damit zusammenhängen, dass es auf PCs eine höhere Anzahl an Teilnehmenden gibt, die die Umfrage unterbrechen und nach einer Pause (z.B. Mittagspause, Telefongespräch, etc.) fortsetzen. Damit ergeben sich schnell sehr lange (aber nicht andauernd von Aktivität geprägte) Bearbeitungszeiten. Unter Ausschluss von Gesamtbearbeitungszeiten über 5 Minuten sind mobile Teilnahmen also geringfügig langsamer und weisen weniger Pausen auf (Hypothese 3 teilweise abgelehnt). Weshalb bei Einschluss von Gesamtbearbeitungszeiten bis zu einer Stunde die PC-Teilnahmen länger dauern, müsste weiter untersucht werden und könnte auch mit einem höheren Anteil an älteren und weniger IT-affinen Personen in der PC-Gruppe zusammenhängen, sowie auch damit, dass am PC generell etwas längere Texte bei Textantworten erfasst werden – jedoch werden diese oft auch schneller getippt (siehe Hypothese 8).

Bild 2: Reaktionszeit (RZ), Beantwortungszeit Tabellenfrage (BZ Frage) sowie Beantwortungszeit Gesamter Fragebogen (BZ Gesamt)

Brechen mobile Teilnehmende häufiger ab?

Weiter wurde die Abschlussrate berechnet. Sie bezeichnet die Anzahl der Teilnehmenden, die den Fragebogen bis zum Schluss ausgefüllt haben (letzte Frage wurde beantwortet).

Da das Ausfüllen der Umfrage über mobile Geräte weniger bequem sein kann, in “mobilen Situationen” oftmals vermehrt Ablenkungen auftreten und eine Umfrage auch nebenbei beantwortet werden könnte[1][3][8], sollte die Abbruchquote in der Mobil-Gruppe höher sein als in der PC-Gruppe (Hypothese 4).

Auf Mobilgeräten betrug mit einer Stichprobengrösse von nmob=24’613 die Complete-Rate 82.3% (ncomp_mob=20’259), sowie mit npc=21’968 auf Nichtmobilgeräten 89.6% (ncomp_pc=19’679). Die Abweichung hat ein Odds Ratio[16] von 0.5412 mit p<0,001 (entspricht Cohen’s d von rund 0.33 als mittlerer Effekt[2]), der Unterschied ist gemäss Fisher‘s Exact Test signifikant mit p<0,001. Die Abschlussrate ist also auf Mobilgeräten rund 7,3 Prozentpunkte tiefer. Umgekehrt betrachtet wurde eine Abbruchquote (Break-Off Rate) von mobil 17.7% gegenüber nicht mobil 10.4% beobachtet. Dies entspricht einer doch deutlichen Erhöhung um zwei Drittel (Hypothese 4 bestätigt).

Bild 3: Abbruchrate Mobil vs. PC

Antworten mobile Teilnehmende weniger aufmerksam?

Der Begriff Item Non-Response beschreibt das Nichtbeantworten von Fragen, oder – bei Pflichtfragen, die bei Auslassen nochmals gestellt werden wie in unserem Fragebogen – die Auswahl einer Ausweichkategorie wie zum Beispiel “weiss nicht” oder “keine Antwort” bei Single- und Multiple-Choice-Fragen oder Tabellen mit Likert-Skalen. Untersucht haben wir dazu die im Fragebogen enthaltene Tabellenfrage mit 5 Items/Zeilen, die eine elfstufige Likert-Skala von höchst zufrieden bis höchst unzufrieden sowie die Ausweichkategorie “nicht beurteilbar” anbietet. Unsere Berechnung zeigt, wie oft die Ausweichkategorie ausgewählt wurde.

Aus denselben Gründen wie bei Hypothese 4 vermuten wir, dass die Häufigkeit von Item Non-Response mobil höher ist als am PC (Hypothese 5). Limitierend für diese Studie ist anzumerken, dass Pflichtfragen eingesetzt wurden und daher das Kriterium “Item Non-Response” keine eigentlichen Nicht-Antworten erfasst, sondern lediglich die Nutzung der Ausweichkategorie, und diese zudem mit “nicht beurteilbar” statt typischerweise “weiss nicht/keine Antwort” beschriftet ist.

Auf Mobilgeräten betrug mit einer Gesamtantwortanzahl von nmob=107’131 der Anteil an “nicht beurteilbar”-Antworten 3.39% (nw_mob=3’626), auf Nichtmobilgeräten mit npc=101’225 Antworten 4.48% (nw_pc=4’535).

Diese Abweichung hat ein Odds Ratio[16] von 1.3385 mit p<0,001 (entspricht Cohen’s d von 0.16 als schwacher Effekt[2]), der Unterschied ist gemäss Fisher‘s Exact Test signifikant mit p<0,001. Der Prozentsatz an “nicht beurteilbar”-Antworten ist entgegen unserer Vermutung auf Mobilgeräten damit um rund einen Viertel tiefer (absolut 1.09%). Die Hypothese 5 wird damit vorläufig abgelehnt.

Dies könnte auf eine höhere Datenqualität hinweisen, könnte aber auch daran liegen, dass die Ausweichkategorie mobil auf Grund des kleinen Bildschirms der Position ganz rechts als marginal wahrgenommen wird, oder dass Teilnehmende auf Mobilgeräten zu bequem sind, die vorhandene Ausweichkategorie überhaupt erst auszuwählen, und daher sogenannte Trash-Antworten hinterlegen und die Ausweichkategorie schlichtweg nicht akkurat benutzen. Zum Beispiel, indem eine Spalte mit immer gleichen Antworten ausgewählt wird (“herunterkreuzeln” ohne nachzudenken).

Um diese Art der Verschmutzung genauer zu untersuchen, wurden nachfolgend auch einige Typen von Straightlining untersucht. Es handelt sich dabei um ein Null-Varianz-Antwortverhalten, bei dem ein immer gleicher Skalenpunkt unabhängig von der Skalenbreite, -ausrichtung und Frageformulierung für alle Zeilen einer Skalentabelle gewählt wird, was häufig bei unmotivierten Teilnehmenden auftritt[7]. Straightlining kann unter gewissen Umständen dennoch valide sein, zum Beispiel wenn eine Item-Batterie eine hohe interne Konsistenz aufweist und alle Items in dieselbe Richtung formuliert sind[12]. Bei unserem Vergleich zwischen mobilen und nicht mobilen Teilnahmen ist dies besonders spannend, da in beiden Gruppen die Zahl der validen Straightliner konstant sein müsste (da sich die eigentliche Meinung, auch wenn sie über die 5 Items hinweg einheitlich ist, von mobil und nicht mobil teilnehmenden Personen bei so grossen Stichproben nicht unterscheiden dürfte) und lediglich die Zahl der auf Grund der Geräteverschiedenheit unterschiedlich agierenden Teilnehmenden, also die nicht validen Straightliner, variieren dürfte. Dieses sozusagen geräteinduzierte Straightlining stellt eine Datenverschmutzung dar.

Wir vermuten, dass mobile Teilnehmende häufiger Straightlining aufweisen als Teilnehmende am PC (Hypothese 6).

Auf Mobilgeräten (Stichprobengrösse von nmob=21’500) betrug der Anteil an Teilnehmenden mit Straightlining 35.47% (nst_mob=7627), auf Nichtmobilgeräten (Stichprobengrösse mit npc=20’252) 31.19% (nst_pc=6316), diese Abweichung hat ein Odds Ratio[16] von 1.2131 mit p<0,001 (entspricht Cohen’s d von rund 0.10 als schwacher Effekt[2]), der Unterschied ist gemäss Fisher‘s Exact Test mit p<0,001 signifikant. Straightlining ist damit bei Mobilgeräten etwas häufiger problematisch, insbesondere, wenn man davon ausgeht, dass valides Straightlining (bewusstes, elaboriertes Entscheiden für immer dieselbe Skalenausprägung in allen Zeilen der Tabellenfragen) bei beiden Vergleichsgruppen theoretisch gleich häufig sein müsste. Eine allfällig doch vorhandene Differenz müsste demnach ausschliesslich den Anteil “verschmutzter Daten” auf Grund von demotivational bedingtem Straightlining widerspiegeln. Damit dürfte der tatsächliche Effekt grösser sein als der gemessene Effekt. Beispielsweise würden nach Abzug von angenommen 30% validen Straightliner für die nicht validen Straightliner mobil 5.47% und nicht mobil 1.19% “übrig bleiben”, also schon fast 5 mal mehr (Hypothese 6 bestätigt).

Der Begriff Extreme Response Style (ERS) bezeichnet ein spezifisches Antwortverhalten, bei dem in Tabellenfragen mit Likert-Skalen die Extrempunkte übermässig oder ausschliesslich genutzt werden. Wir klassifizieren für diese Studie Teilnehmende, die ausschliesslich Skalenendpunkte genutzt haben und mindestens eine Zeile mit einer diametral anders gepolten Antwort ausgewählt haben (z.b. 4 mal “höchst zufrieden” und 1 mal “höchst unzufrieden”, 3 mal “höchst zufrieden” und 2 mal “höchst unzufrieden”, 2 mal “höchst zufrieden” und 3 mal “höchst unzufrieden” etc.).

Wir vermuten, dass ESR auf Grund der Seltenheit des Phänomens bei mobilen Teilnahmen nicht signifikant häufiger auftritt als am PC (Hypothese 7).

Auf Mobilgeräten (Stichprobengrösse von nmob=21’500) betrug der Anteil an Teilnehmenden mit ESR 0.35% (nesr_mob=75), auf Nichtmobilgeräten (Stichprobengrösse mit npc=20’252) 0.38% (nesr_pc=77), diese Abweichung hat ein Odds Ratio[16] von 1.3993 mit p=0,62, der Unterschied ist gemäss Fisher‘s Exact Test nicht signifikant. Es gibt damit keinen signifikanten (allenfalls nur zufälligen) Unterschied in der Häufigkeit von Extreme Response Style (ESR) zwischen Mobil- und Nichtmobilgeräten (Hypothese 7 bestätigt).

Sind mobile Textantworten kürzer?

Die Länge der Textantworten auf offene Fragen kann ebenfalls ein Qualitätskriterium sein, weil durch kürzere Antworten oft weniger substanzielle oder ungenauere Aussagen für Auftraggebende herausgearbeitet werden können.

Bei mobilen Teilnahmen gehen wir aufgrund der umständlicheren Eingabetechnologie, der eingeschränkten Platzverhältnisse und der mobilen Befragungssituation, die weniger elaborierte und zeitlich limitierte Reflexion begünstigen, von deutlich kürzeren Eingaben aus (Hypothese 8). Dies wurde bereits von Mavletova[9] sowie Toepoel and Lugtig[17] berichtet.

Das ausreisserbereinigte arithmetische Mittel der Textlängen grösser als 0 und kleiner als 500 Zeichen auf die Frage “Was (…) hat Sie am meisten gefreut (…) oder verärgert?” liegt bei den mobilen Teilnahmen bei 71.57 Zeichen (M=71.57; SD=78.20; nmob=16’156), bei den nicht mobilen Geräten bei 100.95 Zeichen (M=100.95; SD=97.34; nmob=15’427).

Die Abweichung ist gemäss Welch-Test t(29572)=29.48 signifikant mit p<0,001 und die Effektstärke mit Cohen’s d=0.33 zeigt einen mittleren Effekt. Die Teilnehmenden, die nicht mobil geantwortet haben, hinterlegten also deutlich längere Texte (Hypothese 8 bestätigt).

Bild 4: Arithmetisches Mittel (ausreisserbereinigt) Länge Textantworten Mobil vs. PC

Tabelle 1: Zusammenfassung der Ergebnisse und Effektstärke

Fazit und Empfehlungen für die Praxis?

Datenqualität in Onlineumfragen wurde im Vergleich zwischen mobilen und nicht mobilen Teilnahmen bisher wenig untersucht, wobei Ergebnisse vorangehender Studien mit einem erstmals sehr grossen Sample aus einer aktuellen Schweizer Kundenbefragung in einer realen für die Marktforschung relevanten Zielgruppe im Retail-Sektor weitgehend bestätigt werden.

Mobile Teilnahmen zeichnen sich in der vorliegenden Untersuchung im Unterschied zu nicht mobilen Teilnahmen aus durch…

  1. eine erhöhte Abbruchrate (=tiefere Abschlussrate),
  2. eine höhere Datenverschmutzung durch nicht valides Straightlining,
  3. deutlich kürzere offene Textantworten mit möglicherweise weniger substanziellen oder detaillierten Aussagen,
  4. eine schnellere Reaktionszeit auf Umfrageeinladungen,
  5. etwas weniger häufige Auswahl der Ausweichkategorie “nicht beurteilbar” in Likert-Skalen (was in Bezug auf Datenqualität unklar ist, da Teilnehmende unter Umständen mobil vorziehen, Trash-Antworten zu hinterlegen, anstatt akkurat die Ausweichkategorie zu benutzen, oder diese technisch auf Mobilgeräten zu wenig salient platziert ist),
  6. uneindeutige Ergebnisse zur Antwortdauer auf einzelne Fragen und des gesamten Fragebogens, wobei auf nicht mobilen Geräten mehr Pausen gemacht werden.

Grössere Unterschiede zwischen mobilen und nicht mobilen Teilnahmen bezüglich Datenqualität sind mit zunehmender Verbreitung technisch hochstehender Smartphones und Tablets und responsiven Fragebögen grundsätzlich nicht zu erwarten, da die noch vor wenigen Jahren beschriebenen Eingabehürden (schlechte Prozessorgeschwindigkeit, sehr kleine Screens, Usability, mangelhafte Netze[11]) weitgehend aus dem Weg geräumt wurden.

Eine zentrale Ausnahme ist die zu erwartende geringere Textmenge und die damit möglicherweise weniger elaborierten und ausführlichen Angaben bei Fragen mit offenen Textfeldern, die gerade bei Fragebögen mit einer gewissen qualitativen Orientierung die Datenqualität ganz wesentlich beeinträchtigen können.

Eine in mobilen Teilnahmen erhöhte Zahl an Straightliner – wie in dieser Studie gezeigt – kann durch ausgeklügelte Methoden[7][10] auch nachträglich in Survey Daten bereinigt werden.

Zusammenfassend empfehlen wir, obenstehende Implikationen für zukünftige geplante Umfragen regelmässig zu reflektieren sowie potenzielle Vor- und Nachteile transparent zu kommunizieren. Darüber hinaus empfehlen wir für alle Onlineumfragen intensives Pretesting in gemischten Zielgruppen (mobil und nicht mobil), eine entsprechende und gezielte Analyse der Pretest-Daten vor Feldstart auf für das Projekt wesentliche und in diesem Artikel beschriebene Parameter hin sowie das vorsorgliche Einbinden fachlicher Beratung durch Experten, gerade bei sensitiven Projekten.

Literaturverzeichnis weiter unten

English Version: download pdf

Raffael Meier

Mitgründer/CTO von onlineumfragen.com

raffael.meier@onlineumfragen.com
+41 44 500 5137

Nina Gwerder

Lead Consultant bei onlineumfragen.com

nina.gwerder@onlineumfragen.com
+41 44 500 5140

Die Autoren
Raffael Meier, MA, MSc – Mitgründer/CTO von onlineumfragen.com und Pionier der deutschsprachigen Onlineumfragetechnologie. Er befasst sich mit gesellschaftlichen und methodologischen Aspekten von Daten und berät Kundinnen und Kunden mit dem Ziel «Empowerment»

Nina Gwerder, MA – Lead Consultant bei onlineumfragen.com und spezialisiert auf die Beratung namhafter nationaler und internationaler Unternehmen rund um das Thema Onlineumfragen und deren effektive Auswertung

Download Artikel
Swiss Insights News #4

Institute Member von
SWISS INSIGHTS

onlineumfragen.com

Alle SWISS INSIGHTS News finden Sie hier: SWISS INSIGHTS NEWS

Literaturverzeichnis
[1] Bosnjak, M., Poggio, T., Becker, K.R., Funke, F., Wachenfeld, A., & Fischer, B. (2013). Online survey participation via mobile devices. Conference Paper, The American Association for Public Opinion Research (AAPOR) 68th Annual Conference, 2013, Boston, MA.
[2] Borenstein, M., Hedges, L.V., Higgins, J.P.T., & Rothstein, H.R. (2009). Converting Among Effect Sizes. In Introduction to Meta-Analysis (eds M. Borenstein, L.V. Hedges, J.P.T. Higgins and H.R. Rothstein).
[3] de Brujine, M., & Wijbant, A. (2013) Comparing survey results obtained via mobile devices and computers: An experiment with a mobile web survey on a heterogeneous group of mobile devices versus a computer-assisted web survey. Social Science Computer Review, 31, S.482-504.
[4] Couper, M. P., & Peterson, G. (2016). Why do web surveys take longer on smartphones? Social Science Computer Review. First published on February 11, 2016. doi:10.1177/0894439316629932
[5] Franck, G. (1998). Ökonomie der Aufmerksamkeit. Ein Entwurf. Dtv, München 2007, ISBN 978-3-423-34401-2.
[6] Haug, A. (2021). Understanding the differences across data quality classifications: a literature review and guidelines for future research. Industrial Management and Data Systems, 121(12), 2651–2671. https://doi.org/10.1108/IMDS-12-2020-0756
[7] Jandura, O. (2018). Fake Data? Zur Trennung von sauberen und verschmutzten Daten bei selbstadministrierten Befragungsmodi. In Rössler P. & Rossman, C. (Hrsg.), Kumulierte Evidenzen. Wiesbaden: Springer VS, S. 207-223.
[8] Mavletova, A. (2013). Data Quality in PC and mobile web surveys. Social Science Computer Review, 31, S.725-743.
[9] Mavletova, A., & Couper, M. P. (2015). A meta-analysis of breakoff rates in mobile web sur-veys. In D. Toninelli, R. Pinter, & P. de Pedraza (Eds.), Mobile research methods: Opportunities and challenges of mobile research methodologies (pp. 81–98). London, England: Ubiquity Press.
[10] Meier, R., & Gwerder, N. (2022). Dirty Data in Online Surveys. Wie Datenqualität vor und nach der Feldphase verbessert werden kann. In Swiss Data Insights Association (Hrsg.), Swiss Insights Report 2022. Swiss Insights. https://swiss-insights.ch/wp-content/uploads/2023/01/Annual-Report-2022-klein.pdf
[11] Peytchev, A., & Hill, C.A. (2010). Experiments in mobile web survey design. Similarities to other modes and unique considerations. Social Science Computer Review, 28, S.319-355.
[12] Reunig, K., & Plutzer E. (2020). Valid vs. Invalid Straightlining: The Complex Relationship Between Straightlining and Data Quality. Survey Research Methods, 14(5), S.439-459
[13] Schlosser, S., & Mays, A. (2018). Mobile and Dirty: Does Using Mobile Devices Affect the Data Quality and the Response Process of Online Surveys?, Social Science Computer Review, 36(2), S.212-230. DOI: 10.1177/0894439317698437
[14] Schwarz, N. (2007). Cognitive aspects of survey methodology. Appl. Cognit. Psychol., 21: 277-287. https://doi.org/10.1002/acp.1340
[15] Schwarz, N. (1999). Self-reports: How the questions shape the answers. American Psychologist, 54(2), 93–105. https://doi.org/10.1037/0003-066X.54.2.93
[16] Sheskin, DJ (2004). Handbook of parametric and nonparametric statistical procedures. 3rd ed. Boca Raton: Chapman & Hall /CRC.
[17] Toepoel, V., & Lugtig, P. (2014). What happens if you offer a mobile option to your web panel? Evidence from a probability-based panel of internet users. Social Science Computer Review, 32, 544–560.
[18] Wang, R.Y., & Strong, D.M. (1996). Beyond Accuracy: What Data Quality Means to Data Consumers. Journal of Management Information Systems, 12(4), S.5-33.
[19] Wells, T., Bailey, J.T., & Link, M.W. (2014). Comparison of smartphone and online computer survey administration. Social Science Computer Review, 32, S.238-255.

Happy Thinking People heisst jetzt Human8

Die Agentur erklärt, dass die Namenänderung nicht über Nacht geschah. Human8 ist das Ergebnis einer intelligenten Mischung der Erfolgsfaktoren von 10 branchenweit führenden Unternehmen, die sich in den letzten 5 Jahren zusammengeschlossen haben.[1] Dieser Zusammenschluss wurde in eine klare globale Beratungsvision und -strategie, eine völlig neue Identität und ein einheitliches Portfolio umgesetzt, in deren Mittelpunkt menschliche Gemeinschaften stehen. Human8 hat eine starke Präsenz in den USA sowie in den Regionen EMEA und APAC und vereint an 23 Standorten eine kreative, intelligente und ambitionierte Belegschaft von über 900 MitarbeiterInnen mit einer geteilten Leidenschaft für menschliche Zusammenarbeit.

Human8 folgt dem, was wir propagieren, und baut auf echten Kundenerkenntnissen auf. Wir haben diese globale Markenumbenennung nicht auf die leichte Schulter genommen, sondern haben gemeinsam mit unseren Mitarbeitenden und Kunden an dieser neuen Zukunft gearbeitet und uns weiterentwickelt. Wir sind mehr als stolz darauf, sagen, zeigen und spüren zu können, wie wir uns zu Human8 entwickelt haben“, sagt Anke Moerdyck, Head of Global Marketing, Human8.

Mit Human8 bringen wir ein neues Portfolio auf den Markt, wir geben Marken ein neues Versprechen und wir geben unseren Mitarbeitenden auf der ganzen Welt eine neue Aufgabe“, sagt Kristof De Wulf, CEO von Human8. Die neue Markenpositionierung basiert auf dem Verständnis, dass Marken die Ganzheit der Menschen und ihres Lebens verstehen wollen, verbunden mit dem Bedürfnis nach mehr als nur Daten, nämlich nach deutlichen Interpretationen und einem klaren Standpunkt über zukünftige Chancen und Möglichkeiten. Der Name Human8 beinhaltet verschiedene Bedeutungen. „Human“ steht selbstverständlich für das Bestreben des Beratungsunternehmens, den Menschen in den Mittelpunkt seiner Arbeit zu stellen. Als Symbol für Vollständigkeit und Unendlichkeit will die „8“ vermitteln, dass wahres menschliches Verständnis nur durch die Betrachtung verschiedener Blickwinkel über einen längeren Zeitraum hinweg möglich ist. Human8 kann auch als Verb interpretiert werden (to ‚hu-man-ate‘ bedeutet menschlich machen) und bezieht sich auf die Handlungsorientierung, d.h. ein Partner für Marken zu sein, um das umzusetzen, was den Menschen wichtig ist.

De Wulf fährt fort: „Wir glauben an echte Verbindungen zwischen Menschen, an unterschiedliche Sichtweisen von Menschen und daran, Marken zum Handeln zu motivieren. Mit Human8 bringen wir durch unsere erweiterte Beratungsebene und Aktivierungsmethoden Erkenntnisse und Strategie zusammen und verwandeln sie in Handlungs- und Transformationsprozesse.“

Space Doctors, ein Unternehmen, das Ende 2022 übernommen wurde, ist das „Envision & Transform“-Exzellenzzentrum der globalen Agentur und wird als Teilmarke unter der neuen Dachmarke Human8 weitergeführt, um einen dedizierten Geschäftsbereich für kulturelle Einblicke, Prognosen und Zukunftsforschung sowie Marken- und Kreativstrategien zu etablieren und auszubauen.


[1] InSites Consulting, Direction First, Columinate, eÿeka, Join the Dots, ABN Impact, Answer, Space Doctors, Gongos, Happy Thinking People

Über Human8
Human8, die auf Menschen ausgerichtete Beratungsfirma, verbindet Marken mit Menschen und Kultur, um positive Veränderungen zu bewirken. Human8 enthüllt, was den Menschen wichtig ist und wie Marken darauf reagieren können.
Human8 ist der Zusammenschluss von 10 richtungsweisenden Agenturen aus der ganzen Welt: InSites Consulting, Direction First, Columinate, eÿeka, Join the Dots, ABN Impact, Answer, Space Doctors, Gongos und Happy Thinking People. 
Human8 vereint eine kreative, kluge und ambitionierte Gruppe von über 900 Mitarbeitenden an 23 Standorten unter einer Vision: Marken menschlicher zu gestalten, indem wir Menschen und Kultur besser verstehen; Marken in die Lage zu versetzen, aktiv zu werden; und das Leben der Menschen zu verbessern, für die sie arbeiten.
Für weitere Informationen besuchen Sie bitte https://www.wearehuman8.com

Conversational Marketing Automation in der Ära von Marketing 5.0

Indem Unternehmen auf die Bedürfnisse und Interessen ihrer Kundschaft eingehen und ihnen personalisierte Angebote und Informationen zukommen lassen, können sie die Kundenzufriedenheit steigern und somit die Kundenbindung erhöhen.

Ein Beispiel für die erfolgreiche Umsetzung von Conversational Marketing bietet das Unternehmen Birkenstock. Der bekannte Hersteller von Sandalen und Schuhen setzt auf virtuelle Produktberatung, um auch online seiner Kundschaft ein authentisches und personalisiertes Kauferlebnis zu bieten. Die virtuelle Beraterin namens Birki wurde in den Webshop des Unternehmens integriert und soll dem “Paradox of Choice” entgegenwirken. Kundinnen und Kunden können mit Birki interagieren und ihr ihre Bedürfnisse und Vorlieben mitteilen. Auf Basis dieser Informationen gibt Birki dann personalisierte Empfehlungen für passende Produkte.

Der Einsatz von Birki hat zu einer Steigerung der Konversionsrate und einer Reduktion von Warenkorbabbrüchen geführt. Zudem sammelt das Unternehmen wertvolle Daten und Insights über die Bedürfnisse und Vorlieben seiner Kundschaft, die in Zukunft für gezielte Werbekampagnen und personalisierte Angebote genutzt werden können.

Das Beispiel von Birkenstock zeigt, wie Conversational Marketing erfolgreich in die E-Commerce-Strategie eines Unternehmens integriert werden kann: Indem auf die Bedürfnisse und Interessen der Kundinnen und Kunden eingegangen wird, können Unternehmen die Customer Experience verbessern und somit auch ihre Verkaufszahlen steigern.

Fokus auf Personalisierung ist essenziell

Dabei ist der Fokus auf die Personalisierung besonders wichtig, weil Kunden auf relevante Nachrichten von Unternehmen gut reagieren. Unternehmen konzentrieren sich verstärkt auf die sogenannten Micro Moments, da diese Momente innerhalb der Customer Journey die generelle Wahrnehmung massgeblich beeinflussen. Das Thema Dialogmarketing wird verstärkt in die Multichannel- bzw. Omnichannel-Strategien der Unternehmen sowie in ihre Customer Experience-Konzepte integriert. Der automatisierte Kundendialog ist dabei eine passende strategische Option für Unternehmen.

Conversational Commerce, also z.B. der Einsatz von virtuellen Beratern im Online-Handel, hat in den letzten Jahren stark zugenommen. Immer mehr Marken erkennen die Bedeutung von personalisierter Beratung und Fachwissen, um den Umsatz im E-Commerce zu steigern.

Das Beispiel Birkenstock zeigt, dass der Einsatz von virtuellen Beratern ein effektiver Weg ist, um das Kundenerlebnis zu verbessern und den Umsatz zu steigern. Der virtuelle Berater sollte gut gestaltet und auf die Kundenbedürfnisse abgestimmt sein. Zudem sollten Unternehmen sicherstellen, dass sie die Datenschutzbestimmungen einhalten und die Transparenz gewährleisten, um das Vertrauen ihrer Kunden zu gewinnen und langfristige Beziehungen aufzubauen.

Einsatz von Chatbots als weitere Möglichkeit

Eine weitere Option, um Conversational Marketing umzusetzen, ist der Einsatz von Chatbots auf Basis von künstlicher Intelligenz. Hier kommt ChatGPT ins Spiel, ein leistungsstarkes Framework, welches von OpenAI entwickelt wurde. ChatGPT kann nicht nur Texte verstehen und darauf reagieren, sondern auch eine Vielzahl von Aufgaben automatisch ausführen, wie beispielsweise das Buchen von Terminen oder das Beantworten von häufig gestellten Fragen. Darüber hinaus kann ChatGPT kontinuierlich lernen und sich verbessern, indem es die Interaktionen mit der Kundschaft analysiert und auf dieser Basis seine Antworten und Empfehlungen anpasst. Unternehmen können somit eine personalisierte und effektive Kundenkommunikation aufbauen und gleichzeitig Zeit und Kosten sparen.

Abbildung 1: Conversational commerce

Fazit

Unternehmen sind gefordert, sich mit neuen Technologien auseinanderzusetzen und die ersten Schritte in Richtung konkreter Use Cases zu machen. Das Potenzial ist enorm, aber auch das Risiko, wenn sich Unternehmen dieser Trends nicht annehmen.

Dominic Bolliger

Co-Founder DiALOGiFY

dominic@dialogify.io
M +41 79 445 12 02 | T +41 44 586 64 66

Der Autor
Dominic Bolliger ist Co-Founder von DiALOGiFY, der Next-Level Conversational Cloud Software – Powered by ChatGPT. DiALOGiFY unterstützt Marken und Unternehmen dabei, kundenzentrierte Interaktionen entlang der Customer Journey einzusetzen.

Download Artikel
Swiss Insights News #3

Alle SWISS INSIGHTS News finden Sie hier: SWISS INSIGHTS NEWS

Mobilitätsforschung durch smartes Tracking revolutioniert

In der Vergangenheit wurden Daten zum Reise- und Bewegungsverhalten der Bevölkerung häufig über Befragungen oder Tagebuchstudien erhoben. Aber das Vorgehen ist wenig effizient, für die Studienteilnehmenden oft aufwändig und die Genauigkeit der Angaben ist nicht immer hoch. So werden von den Studienteilnehmenden allenfalls zurückgelegte Wege oder Etappen nicht korrekt erinnert, verwechselt oder bewusst nicht angegeben.

intervista bietet eine technologisch fundierte Methodik, die nicht nur angenehmer für Studienteilnehmende, sondern auch effizienter und smarter ist: die kontinuierliche automatische Messung von Reise- und Bewegungsdaten durch Smartphone-basiertes Geolocation-Tracking. Diese passive Verhaltensmessung generiert dank des technischen Setups fortlaufend umfangreiche Datensets und bietet eine hohe Präzision. Gleichzeitig ermöglicht sie den Studienteilnehmenden die bessere Experience.
Wie das konkret funktioniert, möchten wir kurz erklären.

Footprints Research: Methodik und Technologie

Im Kern des smarten Verfahrens steht die von intervista entwickelte Smartphone App «Footprints Research». Die App registriert kontinuierlich die Aufenthaltsorte, die Daten der Bewegungs- und Rotationssensoren des Gerätes sowie Kontakte mit Beacons.

Mit den Tracking-Daten wird mit Modellen konkretes Verhalten ermittelt wie zurückgelegte Etappen und Wege, die Verkehrsmittelnutzung, der Mobilitätszweck und Besuche von Points-of-Interest (z.B. Supermärkte, Museen, Sportstadien, Restaurants etc.).

Abbildung 1: Footprints Research App
Abbildung 2: Messtechnologie und Datenaufbereitung

Im Herbst 2018 lancierte intervista das Footprints-Panel und sammelt seither kontinuierlich und vollautomatisch Mobilitätsdaten der teilnehmenden Panelistinnen und Panelisten. Aktuell erfasst das Footprints-Panel 3’000 Personen, diese wurden nach soziodemografischen Merkmalen entlang repräsentativer Vorgaben für die Schweizer Bevölkerung im Alter von 15 bis 79 Jahren aus dem intervista Online-Panel unter Einhaltung der geltenden Datenschutzgesetze (DSG und DSGVO) rekrutiert.
Im Unterschied zu herkömmlichen Tagebuchstudien, die in der Regel nur einen kurzen Zeitraum umfassen, erfasst die App das Verhalten an 365 Tagen im Jahr, wodurch insgesamt ein Datenschatz von mehr als 1 Million Messtagen pro Jahr erhoben wird, der intervista für Analysen zur Verfügung steht.

Abbildung 3: Heatmap Mobilität in der Schweiz

Zu den Footprints-Panelistinnen und -Panelisten liegen umfassende Profilmerkmale vor (z.B. Alter, Geschlecht, Einkommen, Interessen), welche mit den Messdaten kombiniert werden können, um tiefergehende Analysen durchzuführen.

Über die App können Personen zudem zu Befragungen eingeladen werden. So können z.B. Personen eingeladen werden, wenn sie bestimmte Orte besucht haben oder ein bestimmtes Verhalten zeigen. Dies ermöglicht gehaltvollere Forschungsdesigns, welche beispielsweise auch Motive und Wahrnehmung beinhalten.

Zudem bietet die App eine ideale Experience für die Teilnehmenden, da sie nur eine einmalige, einfache Installation erfordert und einen geringen Akkuverbrauch aufweist.

Anders gesagt: Die Footprints-Panelistinnen und -Panelisten nehmen an einer Mobilitätsstudie teil, indem sie einfach zur Arbeit pendeln, einen Städtetrip unternehmen oder einkaufen – ohne im Hinterkopf behalten zu müssen, sich den Ablauf möglichst gut einzuprägen und selbständig zu dokumentieren. Damit revolutioniert intervista die Mobilitätsforschung und bringt sie auf das nächste Level, um den zunehmend komplexen Fragestellungen zur Mobilität auf Augenhöhe zu begegnen.

Die App von intervista ist zudem als White-Label-Lösung verfügbar. So hat intervista beispielsweise im Jahr 2022 für das Bundesamt für Statistik BFS die massgeschneiderte MVMZ-App (Mikrozensus Mobilität und Verkehr) konzipiert und programmiert.

Den Mehrwert der App-basierten passiven Messung möchten wir Ihnen am Beispiel einer intervista-Studie veranschaulichen, die 2021 mit dem renommierten «GOR Best Practice Award» für den erfolgreichen Einsatz modernster digitaler Forschungsmethoden ausgezeichnet worden ist.

Mobilitäts-Monitoring während der COVID-19-Pandemie

Im Auftrag des statistischen Amtes des Kantons Zürich, der Swiss National COVID-19 Science Task Force, des Bundesamtes für Statistik BFS und der Konjunkturstelle der ETH Zürich führten wir im Rahmen der COVID-19-Pandemie während 18 Monaten (Januar 2020 – Juli 2021) ein umfassendes Mobilitäts-Tracking der Schweizer Bevölkerung durch.

Dank der umfangreichen Datenerhebung durch das Footprints-Panel konnten wir verschiedene Entwicklungen anhand ausgewählter Kriterien detailliert aufzeigen. So konnte u.a. gesehen werden, ob und inwiefern sich Bevölkerungssegmente an verbindliche Vorgaben sowie Empfehlungen des Bundesrates hielten.

Während der COVID-19-Pandemie veränderte sich das Mobilitätsverhalten der Schweizer Bevölkerung massiv. Das Tracking ergab, dass die Bevölkerung ihr Mobilitätsverhalten – zu Fuss, mit privaten Fahrzeugen sowie dem öffentlichen Verkehr – nach Erklärung der ausserordentlichen Lage am 16. März 2020 deutlich einschränkte. Insbesondere die Nutzung öffentlicher Verkehrsmittel ist zu dem Zeitpunkt stark eingebrochen und hat sich in der Folge nur langsam erholt.

Abbildung 4: Relative Entwicklung der Verkehrsmittelnutzung

Segmentiert nach Altersklassen zeigten sich Parallelen in den Verhaltensanpassungen über alle Altersklassen hinweg. Damit liess sich nachweisen, dass sich auch jüngere Personen an die Anweisungen des Bundesrates hielten und ihr Mobilitätsverhalten anpassten.

Abbildung 5: Tagesdistanzen nach Alter

Ein weiteres Beispiel ist die Messung, wie sich die Homeoffice-Empfehlung bzw. die spätere Homeoffice-Pflicht auf das Verhalten von Pendlerinnen und Pendlern mit fixem Arbeits- oder Ausbildungsort auswirkte. So hatte z.B. die Homeoffice-Empfehlung im Oktober 2020 nur einen geringen Effekt auf das tatsächliche Pendlerverhalten.

Abbildung 6: Pendleranteile im Zeitverlauf

Die Daten aus dem Footprints-Panel lassen auch Analysen der interkantonalen Mobilität zu. Die Abbildung zeigt die Mobilitätsverbindungen zwischen den Kantonen. Je stärker die Linie ist, desto mehr Reisen gibt es zwischen den beiden Kantonen. Besonders starke Verbindungen sind z.B. zwischen den Kantonen Basel-Landschaft und Basel-Stadt sowie zwischen Zürich und Aargau zu sehen. Solche Daten sind auch bedeutend für die Analyse von Infektionsketten über Kantonsgrenzen hinweg.

Abbildung 7: Interkantonale Mobilität

Einsatzmöglichkeiten des smarten Mobilitäts-Trackings

Die Studie illustriert beispielhaft den Mehrwert dieser Methodik, welche Mobilitätsforschung mit modernster Technologie verbindet. Mit den umfangreichen Daten aus dem Footprints-Panel und der hohen Präzision der Messmethode können aber auch verschiedenste weitere Fragestellungen zuverlässig und detailliert bearbeitet werden.

So können u.a. die Reichweite und Wirkung von Aussenwerbung, das Pendlerverhalten in Zeiten von Online-Vorlesungen und Homeoffice als neuer Selbstverständlichkeit im «New Work», die Besucherstruktur von Destinationen oder Veranstaltungen, Passantenfrequenzen und auch Einkaufsroutinen untersucht werden. Mit der Möglichkeit, über die App zusätzlich Befragungen durchzuführen, können Befragungsdaten mit den Messdaten kombiniert und gemeinsam analysiert werden. Dies ermöglicht weitergehende Insights, welche beispielsweise Verhaltensmotive und die unmittelbare Wahrnehmung an bestimmten Orten umfassen.

Beat Fischer

Mitglied der Geschäftsleitung
intervista AG

beat.fischer@intervista.ch, +41 31 511 39 21

Der Autor
Beat Fischer ist Mitglied der Geschäftsleitung von intervista. Er ist spezialisiert auf digitale Forschungsmethoden und Experte für Mobilitäts- und Werbeforschung. Bei intervista ist er zudem für das Business Development sowie die Entwicklung digitaler Produkte verantwortlich.

Download Artikel
Swiss Insights News #2

Institute Member von
SWISS INSIGHTS

www.intervista.ch

Alle SWISS INSIGHTS News finden Sie hier: SWISS INSIGHTS NEWS

Reputation durch verantwortungsbewusstes Handeln stärken

Mangelnde Nachhaltigkeit bei der Herstellung von Produkten, sozial unverträgliche Arbeitsbedingungen entlang der Produktionsketten, unnötige Umverpackungen, Abbau von Arbeitsplätzen – all das hat Einfluss auf die Reputation und den guten Ruf eines Unternehmens. Dies umso mehr in einer Zeit, in der Unternehmen und auch Schweizer Non-Profit-Organisationen (NPOs) unter ständiger Beobachtung stehen: Sowohl in klassischen als auch in den sozialen Medien wird jegliches Fehlverhalten genau in Augenschein genommen und diskutiert. Im Gegenzug schlagen sich aber auch positive Entwicklungen z.B. im Rahmen eines besonderen Engagements für soziale oder ökologische Themen, entsprechend positiv in der Reputation nieder.
Die verschiedenen Stakeholder:innen reden nicht nur darüber, sie handeln auch entsprechend: Als Konsumierende vermeiden sie Unternehmen mit zweifelhafter Reputation, als potenzielle Mitarbeitende wählen sie Unternehmen mit herausragender Reputation. Deshalb ist Reputationsmanagement nicht mit Krisenkommunikation gleichzusetzen, sondern sollte systematisch gepflegt werden. So wird zunehmend wichtig zu verstehen, wie die verschiedenen Stakeholder:innen über ein Unternehmen denken. Und zwar nicht nur in Zeiten der Krise, um reaktiv handeln zu können, sondern kontinuierlich, um ein systematisches Reputationsmanagement betreiben zu können.

Mit dem GfK Business Reflector das Thema Reputation stärker im Unternehmen verankern

Mit dem Business Reflector bietet GfK Unternehmen und Organisationen eine effiziente Möglichkeit, um herauszufinden, wie es um ihre Reputation bei der Schweizer Bevölkerung bestellt ist. Seit mehr als fünfzehn Jahren erfasst GfK einmal jährlich die Reputation der führenden Schweizer Unternehmen und seit sechs Jahren zudem die Reputation der bekanntesten Schweizer Non-Profit-Organisationen. Die Messung basiert auf einer repräsentativen Befragung der Schweizer Bevölkerung. Jeweils im Januar und Februar werden 3‘500 Personen zwischen 16 und 69 Jahren in der Deutsch- und Westschweiz mittels einer repräsentativen Online-Umfrage befragt. Das Ranking beruht demnach nicht auf einer Analyse von Performance-Daten, Medienberichten oder anderen Kennzahlen und Experteneinschätzungen, sondern allein auf der Meinung der Schweizer Bevölkerung.
GfK erfasst für das jährliche Ranking eine Kerngruppe von Unternehmen, welche die bekanntesten Unternehmen, die 20 SMI-Titel sowie die grössten Schweizer Arbeitgeber:innen umfasst, sofern diese in der Bevölkerung hinreichend bekannt sind. Unternehmen, welche in der Bevölkerung nicht oder kaum bekannt sind, können von den teilnehmenden Personen auch nicht sinnvoll hinsichtlich ihrer Reputation beurteilt werden und werden ausgeschlossen. Daneben werden die 20 bekanntesten Schweizer Non-Profit-Organisationen in die Studie einbezogen. Weitere Unternehmen und Organisationen können sich ausserhalb des Rankings an der Studie beteiligen und sich so direkt mit den führenden Unternehmen und Organisationen der Schweiz vergleichen. Damit stellt der GfK Business Reflector für alle interessierten Unternehmen und Organisationen ein einzigartiges Reputationsbenchmarking zur Verfügung, das als Basis für das Reputationsmonitoring und Reputationsmanagement dient. Es zeigt auf, wo ein Unternehmen im Vergleich zu anderen führenden Unternehmen steht und wie sich die Reputation im Zeitverlauf verändert.
Gemeinsam mit dem fög (Forschungsinstitut Öffentlichkeit und Gesellschaft), einem assoziierten Institut der Universität Zürich, wurde ein wissenschaftlich fundiertes Messinstrumentarium entwickelt, das die drei zentralen Reputationsdimensionen «rationale Wertschätzung», «emotionale Wertschätzung» und «sozialmoralische Wertschätzung» umfasst. Aus diesen drei Dimensionen wird ein Reputationsindex gebildet, der die zentrale Kennzahl für das GfK Business Reflector Ranking darstellt.
Untersuchungen zeigen, dass insbesondere emotionale Faktoren wie die Sympathie eines Unternehmens zentral für eine gute Reputation sind. Können sich Personen mit einem Unternehmen identifizieren, wird auch die Reputation besser beurteilt. Dabei kommt der sozialmoralischen Verantwortlichkeit eine wesentliche Rolle zu. Die Bevölkerung interessiert sich – wie viele andere Anspruchsgruppen auch – immer stärker dafür, ob ein Unternehmen sich seiner gesellschaftlichen, ökonomischen und ökologischen Verantwortung bewusst ist. Themen wie Arbeitsplatzsicherung am Standort Schweiz, faire Lieferketten und attraktive Arbeitsbedingungen, Klimaschutz und verantwortungsbewusster Umgang mit natürlichen Ressourcen sind zentrale Aspekte, die von den Unternehmen erwartet werden.

Abbildung 1: 7 Dimensionen der Nachhaltigkeit

Für eine gute Reputation ist der verantwortungsbewusste Umgang mit natürlichen Ressourcen ein zentraler Faktor

Wie wichtig das Thema Nachhaltigkeit ist, sieht man auch am Stellenwert in den persönlichen Werten. Seit über 25 Jahren misst GfK im Rahmen der GfK Consumer Life Studie die Wichtigkeit persönlicher Werte wie zum Beispiel den Schutz der Familie, Freundschaft, Ehrlichkeit oder materielle Sicherheit. Der Schutz der Umwelt gehört zu den wichtigsten zehn Werten der Schweizer Konsumierenden und ist inzwischen sogar wichtiger als Gesundheit und Fitness. Der Klimawandel ist die grösste Sorge der Schweizer:innen, noch vor Themen wie steigende Preise oder der Pandemie. Für fast 70 Prozent der Schweizer:innen ist der Klimawandel ein ernst zu nehmendes Problem.

Für eine gute Reputation ist der verantwortungsbewusste Umgang mit natürlichen Ressourcen ein zentraler Faktor

Doch Nachhaltigkeit umfasst nicht nur die ökologische Komponente, sondern auch ökonomische und soziale Aspekte. Themen wie soziale Verantwortung und soziale Toleranz wurden in den letzten Jahren wichtiger für die Menschen, nicht nur in der Schweiz. Ganz besonders wichtig sind für die junge Generation Z soziale Toleranz und Chancengleichheit für alle Menschen, unabhängig von Geschlecht oder Herkunft. Ereignisse wie der Brand der Textilfabrik in Bangladesch vor einigen Jahren oder die Berichterstattung in den Medien über die Arbeitsbedingungen in manchen Ländern machen stärker auf die sozialen Aspekte aufmerksam. Dadurch wird es immer wichtiger, wie und wo ein Produkt hergestellt wurde.

GfK Green Gauge® Segmen-tierung identifiziert verschiedene Anspruchsgruppen

Nicht alle Menschen ticken in Bezug auf Nachhaltigkeit gleich. Deshalb hat GfK eine Segmentierung entwickelt, die Menschen anhand ihrer Sorgen, Einstellungen und Aktivitäten rund um Nachhaltigkeit unterscheidet. Das grünste Segment sind die sogenannten Green inDeed. Diese Menschen sind aktiv in Bezug auf nachhaltiges Denken und Handeln. Sie recyceln, achten beim Einkauf auf Nachhaltigkeit, sparen Wasser und Strom und kaufen nur, was sie brauchen. Sie sind bereit, Aufwand für einen nachhaltigen Lebensstil in Kauf zu nehmen. Auch soziale Aspekte, wie soziale Toleranz, Hilfsbereitschaft oder Chancengleichheit sind ihnen sehr wichtig. Unternehmen müssen sowohl ökologisch als auch sozial nachhaltig handeln, um ihre Reputation in dieser Zielgruppe zu erhöhen. Eine sehr grosse Rolle spielt das Thema CO2-Neutralität, aber auch die Einhaltung ethischer Standards entlang der gesamten Wertschöpfungskette hat einen hohen Stellenwert. Darüber hinaus sollten Unternehmen kommunizieren, wie sie sich sozial engagieren.
Die Glamour Green dagegen, die grösste Gruppe, sind Konsumentinnen und Konsumenten, für die Nachhaltigkeit auch ein Statement ist. Sie tragen coole grüne Labels, posten ihren nachhaltigen Lebensstil in den sozialen Medien und suchen Produkte, die Nachhaltigkeit und Status verbinden. Sie wollen auf nichts verzichten, Nachhaltigkeit muss zu ihrem Lebensstil passen. Nachhaltige Produkte sollen Abwechslung und Spass bringen. Sie kaufen häufiger Markenprodukte und achten auf Convenience- und Ökolabel. Diese Zielgruppe erwartet von Unternehmen neben der Übernahme von Verantwortung für die Umwelt vergleichsweise häufig, dass sie Programme implementieren, die soziale Fragen adressieren, die lokale Gemeinschaft unterstützen oder in die Ausbildung der Mitarbeitenden investieren.

Abbildung 2: GfK Green Gauge®

Konsumentinnen und Konsumenten erwarten von Unternehmen, dass sie die Weichen für nachhaltiges Verhalten stellen

och auch wenn Nachhaltigkeit in den Werten und Einstellungen der Konsumierenden eine grosse Rolle spielt, fällt es den Menschen nicht immer leicht, auch selbst entsprechend zu handeln. Das hat verschiedene Gründe. So sind nachhaltige Produkte oft teurer als herkömmliche, oder es fehlt an Wissen, welche Produkte wirklich nachhaltig sind. Einige Menschen sind unsicher, ob nachhaltige Produkte tatsächlich genauso gut sind wie andere Produkte. Andere bezweifeln, ob sie als Individuum wirklich etwas bewirken können. Deshalb wird vor allem von Unternehmen nachhaltiges Handeln erwartet.
Insbesondere bei der Herstellung von Produkten sollten Unternehmen auf Nachhaltigkeit achten, indem sie beispielsweise umweltfreundlich produzieren, erneuerbare Energien nutzen, umweltfreundliche Inhaltstoffe und Verpackungsmaterialien verwenden, lange Transportwege reduzieren und soziale Aspekte wie die faire Bezahlung aller Mitarbeitenden berücksichtigen.

Unternehmen sollten verstehen, welche Rolle Nachhaltigkeit in ihrer Branche spielt

Nur wenige Unternehmen konnten sich schon erfolgreich nachhaltig positionieren, wie eine europäische GfK-Studie zeigt: 19 Prozent der Konsumentinnen und Konsumenten können eine Marke nennen, die umweltfreundlich ist. Die FMCG-Industrie wird in puncto Nachhaltigkeit vergleichsweise gut bewertet, während bei Reisen, Smartphones oder Autos noch Nachholbedarf besteht. Frühzeitiges Handeln hilft, sich hier einen Reputationsvorsprung zu erarbeiten und sich einen langfristigen Vorteil im Wettbewerb zu verschaffen.

Das Wissen um die verschiedenen Nachhaltigkeitssegmente wird im GfK Business Reflector integriert

In diesem Jahr ist die Green Gauge® Segmentierung Teil der GfK Business Reflector Studie. Teilnehmende Unternehmen können so genau sehen, wie die unterschiedlichen Zielgruppen ihr Unternehmen im Vergleich zu den führenden Unternehmen in Bezug auf die verschiedensten Reputationsaspekte beurteilen.
So können sie ganz gezielt auf die Anforderungen und Bedürfnisse der relevanten Zielgruppen eingehen und ihr Reputationsmanagement optimieren. Eine Steigerung der Reputation erfordert zwar Anstrengungen und Investitionen in vielen Bereichen des Unternehmens, wird aber langfristig mit treuen Konsumierenden sowie zufriedenen Mitarbeitenden belohnt.

Abbildung: Erwartungen von Konsumierenden an Unternehmen

Die Spannung steigt!

Nur noch wenige Wochen bis zur diesjährigen Awardverleihung des GfK
Business Reflector und der Veröffentlichung des Swiss Reputation Rankings. Wir freuen uns auf die Verkündung der Gewinner am 28. März in Zürich!
Möchten Sie live dabei sein, wenn wir die Gewinner:innen prämieren? Neben der Awardverleihung können Sie sich auf zwei spannende Referate zum Thema Nachhaltigkeit freuen!
Die Teilnahme ist kostenlos. Die Teilnehmerzahl ist beschränkt.
-> zur Anmeldung

Möchten Sie sich in der Zwischenzeit vertieft mit den Themen Reputation und Nachhaltigkeit beschäftigen? In unserem Podcast geben wir noch mehr Insights über die Segmente Glamour Green oder Green inDeed aus unserem GfK Green Gauge® Report. Auch kommen die letztjährigen Preisträger:innen zu Wort. Hier können Sie die Episode nachhören.

Dr. Anja Reimer

Client Business Partner und Studienleiterin
GfK Business Reflector

Petra Süptitz

Director Marketing & Consumer Intelligence
GfK

Download Artikel: Swiss Insights News #1
Kontakt: verona.klug@gfk.com

Institute Member von
SWISS INSIGHTS

www.gfk.com

Alle SWISS INSIGHTS News finden Sie hier: SWISS INSIGHTS NEWS

Swiss Insights Report 2022

Wir freuen uns, Ihnen den Swiss Insights Report 2022 der Swiss Data Insights Association vorstellen zu dürfen.

Der Launch des Data Fairness Label hat die Verbands-Transformation einen beträchtlichen Schritt weiter gebracht. Damit einhergehend konnte mit dem Aufbau der Data Fairness Community ein Pendent zur Roundtable Konferenz der Institute aufgebaut werden. Sowohl für die Data Science, wie auch für die klassische Marktforschung gibt es nun ein Gefäss, in dem sich die Unternehmen themenspezifisch austauschen und die Branche weiterentwickeln können. 

Diese Vielseitigkeit findet sich auch in den Artikeln im Swiss Insights Reports 2022 wieder. Er bietet einen breit gefächerten Überblick über den Markt und zeigt auf, in welche Richtung sich die Branche entwickelt.

Im letzten Drittel finden Sie eine Übersicht aller Member, einige stellen darin ihre  Dienstleistungen ausführlich vor. 

Wir wünschen eine spannende Lektüre!

Download SWISS INSIGHTS REPORT 2022

Alle SWISS INSIGHTS News finden Sie hier: SWISS INSIGHTS NEWS

Wie Marketing Insights 5.0 Kreativität und Wettbewerbsfähigkeit steigern kann

In einer Welt, in der sich die Technologien ständig weiterentwickeln, ist es für Unternehmen umso wichtiger, mit den neusten Trends Schritt zu halten. Der Begriff «Marketing 5.0» wurde vor kurzem von Kotler et al. (2021) geprägt und bezieht sich auf die jüngste Evolution des Marketings, bei der die ständige, vernetzte Nutzung von Daten und Technologien im Vordergrund steht, um gezieltere, relevante Kundenerfahrungen zu schaffen. Das Ziel von Marketing 5.0 ist es, Kunden die passende Botschaft zum richtigen Zeitpunkt über den entsprechenden Kanal zukommen zu lassen.

Marketing 5.0 bietet mehrere Vorteile, darunter ein tieferes Kundenverständnis, eine verstärkte Kundeneinbindung, eine gesteigerte Kapitalrendite (ROI) und einen erhöhten Kundenertragswert. Kurz auf den Punkt gebracht: Der wesentliche Nutzen von Marketing 5.0 besteht darin, den Marketern zu ermöglichen, die potenziellen Konsumenten umfassender zu verstehen und deren Bedürfnisse angemessener anzusprechen. Mithilfe KI-basierter Insights können Marketer zielgerichtete Kampagnen erstellen, die bei den Konsumenten besser ankommen und ein nachhaltiges Unternehmenswachstum fördern. Darüber hinaus macht der standardmässige Einsatz von Automatisierung das Marketing effizienter und effektiver.

Kotler et al. (2021) verstehen Marketing 5.0 als «the application of human-mimicking technologies to create, communicate, deliver, and enhance value across the customer journey» (Kotler et al., 2021, p. 6). Marketing selbst ist dabei von Natur aus ein sozialer Unternehmensansatz und fokussiert in erster Linie darauf, die Gedanken und Gefühle im Kopf und im Herzen der verschiedenen Anspruchsgruppen zu verstehen, um diese wiederum gezielt anzusprechen.

Mit anderen Worten: Marketing ist eine spezifische Art des Managements, um ein Unternehmen vom Markt her- und zum Markt hinzuführen. Dies bedeutet im Kern, dass die Bedürfnisse des Marktes bekannt sein müssen, um auf sie entsprechend eingehen zu können. Sowohl ein ganzheitliches Informations- als auch ein Aktionsmanagement sind notwendige Voraussetzungen, um diese
Marketingherausforderung zu bewältigen.

Marketing 5.0 besteht aus drei operativen, miteinander verknüpften Kernkomponenten, nämlich Predictive Marketing, Contextual Marketing und Augmented Marketing sowie zwei organisatorischen Komponenten, genauer Data-Driven Marketing und Agile Marketing. Die beiden organisatorischen Marketing-Technologiekomponenten bilden die Basis für ein systematisches Informationsmanagement, z.B. zum Aufbau eines umfassenden Daten-Ökosystems. Die drei operativen Komponenten erlauben ein wirksames Aktionsmanagement, z. B. zur Erstellung relevanter Marketinginhalte wie Markenslogans, Produktbeschreibungen oder Kampagnen-bilder. Jede Komponente hat dabei einen unmittelbaren Bezug zur Marketingforschung, wobei die beiden organisatorischen Komponenten als Input-Pipeline für Insights und die drei operativen Komponenten als Output-Pipeline für Insights fungieren.

Vor diesem Hintergrund zeigt der nächste Abschnitt die Möglichkeiten fortschrittlicher Technologien der modernen Marketingforschung für eine tragfähige Marketing 5.0-Implementierung auf, im Folgenden als Marketing Insights 5.0 bezeichnet. Als Fallbeispiel für diese Demonstration dient die Vermarktung von Olivenöl des Start-ups JON’S OILIVE

Abbildung 1: Beispielhafte Ergebnisse der Predictive-Marketing-Intelligence-Komponente.

Erstellung von Marketing-Insights-5.0-Inhalten für das Start-Up JON’S OILIVE – eine Fallstudie

Das datengesteuerte Attributionsmodell von Google Analytics wurde als eine der Input-Pipelines verwendet, um zu evaluieren, wie potenzielle Kunden auf die verschiedenen über Google Ads eingeblendeten Anzeigen reagiert haben, mit dem Ziel, zu erkennen, welche Keywords etc. den größten Einfluss auf den Geschäftserfolg hatten und aus Nutzer Kunden werden liessen. Des Weiteren wurde die Konversionsleistung über die verschiedenen Marketing-Touchpoints (Website, soziale Medien usw.) bewertet. Zudem wurden mit Hilfe der agilen Insights-Plattform von quantilope potenzielle und reale Kunden befragt, um implizite markenbezogene Daten (Methode: Single Association Test) zur Stärkung der Markenpositionierung sowie produktbezogene Daten (Methode: Maximum Difference Scaling) zur Ermittlung der Konsumentenpräferenzen für Olivenöl-Produkteigenschaften zu erheben. Im Speziellen wurden dabei Attribute aus der KI-Entdecker-Funktion der KI-basierten SaaS-Lösung neuroflash gezogen und als Input für die Präferenzanalyse als eine Art Vorab-Erkennungs-Intelligenz (prädiktive semantische Analyse) verwendet.

In einem nächsten Erkenntnisschritt mit Blick auf die Predictive Marketing Intelligence wurde eine TURF-Analyse (Total Unduplicated Reach and Frequency) auf der agilen Plattform von quantilope durchgeführt, um die beste Kombination von olivenölbezogenen Produkteigenschaften zu identifizieren. Als Ergebnis wurde eine optimale Kombination von vier Produkteigenschaften ermittelt (in diesem Fall: frisch, regional, authentisch und fein), die etwas mehr als 80 % der (potenziellen) Konsumenten anspricht.

Darüber hinaus wurde Causal Artificial Intelligence (Causal AI) mittels der Software Neusrel auf die impliziten Markenwahrnehmungs- und Verhaltensdaten angewendet, um eine optimale archetypenbezogene Markenpositionierung abzuleiten. Auf diesem evidenzbasierten Weg wurde ein wirkungsvoller Interaktionseffekt auf das Konsumentenverhalten zwischen den Archetypen des Entdeckers und des Rebellen aufgedeckt und als optimale Markenpositionierung definiert. Abbildung 1 zeigt ausgewählte Ergebnisse dieser Predictive-Marketing-Intelligence-Komponente.

Im Rahmen der nächsten operativen Komponente, der Stufe der Contextual Intelligence Insights, wurden mit der KI-Texter- und KI-Bilder-Funktion von neuroflash automatisch Bildbeschriftungen sowie Bilder für einen wirksamen Sponsored Post auf Instagram als einem der wichtigsten Touchpoints und damit Kontextkanäle generiert. Als Input für diesen KI-basierten Kreativitätsansatz dienten die identifizierten wirksamen Produkt- und Markeneigenschaften, um die entsprechenden textlichen und visuellen Inhalte zu generieren.

Abbildung 2: Beispielhafte Ergebnisse der Contextual-Marketing-Intelligence-Komponente.

Eine beispielhafte Generierung gezielter kundenbezogener Inhalte, wie sie in Abbildung 2 zu sehen ist, erfolgt innerhalb weniger Sekunden. Jedes von der KI generierte Marketinggut (Asset), sowohl kurze und lange Texte als auch visuelle Inhalte, ist einzigartig; d. h. die KI ist darauf trainiert, keine bereits zuvor veröffentlichten Marketinggüter zu erstellen.

Im dritten und letzten operativen Schritt, der Stufe der Augmented Intelligence Insights, werden die generierten textlichen und visuellen Inhalte hinsichtlich a) der semantischen und b) der visuellen Wirksamkeit beurteilt, mit der Option, auch c) die verhaltensbezogene Leistungsfähigkeit zu bewerten. Beispielhafte Ergebnisse sind in Abbildung 3 dargestellt.

Abbildung 3: Beispielhafte Ergebnisse der Augmented-Marketing-Intelligence-Komponente.

Für die semantische Leistungsbewertung wurde wiederum das Tool neuroflash, genauer deren KI-Tester-Funktion verwendet, um vorherzusagen, was der Konsument auf einer impliziten Ebene in Bezug auf die als wirksam definierten Produkt- und Markeneigenschaften wahrscheinlich fühlen und denken wird, wenn er die textlichen Inhalte, in diesem Fall die generierten Bildunterschriften und Bildbeschriftungen, zu sehen bekommt. Darüber hinaus wurde die KI-Lösung Everypixel eingesetzt, um die Ahttps://www.neuronsinc.com/ttraktivität der visuellen Inhalte, hier also der generierten Bilder, zu analysieren, aber auch, um zu sehen, welche Assoziationen nach dem Kontakt mit dem jeweiligen Bild im Kopf des Konsumenten wahrscheinlich aktiviert werden.

Nachdem die besten Bildunterschriften und die beiden besten Bilder ermittelt worden waren, wurde die visuelle Wahrnehmungsqualität der Bildbeschriftung-Bild-Kombinationen bewertet. Die KI-Lösung Predict von Neurons wurde eingesetzt, um vorherzusagen, was die Konsumenten wahrscheinlich wahrnehmen werden, wenn sie die einzelnen Bildbeschriftung-Bilder-Inhalte anschauen, um sicherzustellen, dass die richtigen Hinweisreize ausreichend Aufmerksamkeit erhalten. Darüber hinaus wurde der Umfang der kognitiven Anforderungen vorhergesagt, um sicherzustellen, dass der Konsument während des Kontakts mit dem Sponsored Post nicht zu viele Informationen verarbeiten muss. Ebenfalls ist der Grad der Fokussierung geschätzt worden, um so zu gewährleisten, dass nicht zu viele Elemente auf dem Sponsored Post ein erhöhtes Ausmass an Aufmerksamkeit erfahren, was andernfalls zu einem abgelenkteren und damit weniger effizienten Wahrnehmungskontakt führen würde.

Die jüngsten Fortschritte ermöglichen nun auch die genaue Vorhersage von tiefer gehenden kognitiven und emotionalen Reaktionen. Insbesondere lässt sich jetzt der Grad der Klarheit vorhersagen. Dieser gibt an, ob ein Konsument den Inhalt als übersichtlich wahrnimmt oder nicht sowie den Grad des Engagements, der Aufschluss darüber gibt, wie angeregt und eingetaucht sich ein Konsument bei der Betrachtung des Inhalts fühlen wird (siehe Abbildung 3).

In diesem dritten Schritt wäre es zusätzlich möglich, die von der KI erstellten Texte und Bilder in einer realen digitalen Umgebung (noch) genauer zu testen, z. B. in sozialen Medien, in diesem Fall auf Instagram, um eine umfassendere Wahrnehmungs-, aber auch Verhaltenswirkung mithilfe des In-Context-Testansatzes von eye square zu ermitteln. Dieser Ansatz ermöglicht es insbesondere, die digitale Reise des Konsumenten (teilweise) zu simulieren, um die Auswirkungen einer bestimmten Marketingaktivität wie Werbung in sozialen Medien und/oder auf E-Commerce-Plattformen zu bewerten. Für diese Art der Untersuchung werden echte Konsumenten eingeladen und angehalten, eine bestimmte Website zu besuchen. Während des Besuchs der Website werden automatisch verschiedene Wahrnehmungs-
(z. B. Betrachtungsdauer) und Verhaltenskennzahlen (z. B. Pausieren der Anzeige) aufgezeichnet, um Erkenntnisse für mögliche Verbesserungen zu gewinnen. Abbildung 4 veranschaulicht den Prozess und die Umsetzung dieses Ansatzes.

Die inhaltliche Optimierung mittels Marketing Insights 5.0 wurde für alle relevanten Social-Media-Touchpoints, aber auch für die Website einschliesslich des Online-Shops von JON’S OILIVE durchgeführt. Die Überprüfung der Konversionsleistung nach drei Monaten hat aufzeigen können, dass zum Beispiel in Bezug auf die Website die Impression Rate um etwa 300 % gestiegen ist, während sich die Click-Through-Rate fast verdoppelt hat. Derartige Ergebnisse zeigen eindrucksvoll das ausgezeichnete Potenzial des verwendeten Marketing-Insights-5.0-Ansatzes.

Abbildung 4: Veranschaulichung des Prozesses und der Umsetzung des In-Context-Testansatzes.

Marketers befähigen, ihre Marketingaktionen zu beschleunigen

Wie aufgezeigt werden konnte, ermöglicht Marketing Insights 5.0 hochpräzise Vorhersagen über die Marketingleistungsfähigkeit, z. B. die Wirksamkeit der Kommunikation, vom Strategie-Fit (bspw. optimale Markenpositionierung) bis hin zu Konsumentenreaktionen (bspw. was beim Werbekontakt wahrgenommen wird oder ob der Slogan die richtigen Markenassoziationen auslöst), um die mentale Verfügbarkeit im Markengedächtnis der Konsumenten nach Sharp (2010) zu erhöhen/zu stärken. Dieser Ansatz kann entweder allein auf KI-generierten Erkenntnissen beruhen oder durch gezielte Konsumentenbefragungen erweitert werden.

Im Detail wird ein erhöhter Erkenntniswert entlang des gesamten Marketing-Intelligence-Prozesses geschaffen. Dieser reicht von der Diagnose (bspw. tiefes Wissen über die Marke in den Köpfen der Kunden gewinnen, um die Markenstrategie zu definieren), über die Therapie (bspw. die Wirkung der Markenkommunikation im Einklang mit der Markenstrategie maximieren), die Überwachung (bspw. die Effektivität der Markenkommunikation ständig überprüfen, um sie mit der Markenstrategie abzugleichen) bis hin zur Inspiration (bspw. auf KI-gesteuerte Empfehlungen bezüglich Slogans oder Produktbeschreibungen zurückgreifen, die zur Markenstrategie passen). Auf diese Weise wird die Entscheidungsfindung in jeder Phase des Marketing-Intelligence-Prozesses nachhaltig gefördert.
In einer sich rasant digitalisierenden Welt ist es für Unternehmen wichtiger denn je, eine
Marketingeinstellung zu pflegen, welche die neuesten Veränderungen in Technologie und Konsumentenverhalten berücksichtigt. Marketing Insights 5.0 ist ein Ansatz, der dies ermöglicht und mit fortschrittlichen KI-basierten Tools und Technologien relevante und attraktive Konsumentenerlebnisse schafft. Um erfolgreich zu sein, erfordert dieser Ansatz jedoch nicht nur eine datengestützte, sondern vor allem die richtige agile und evidenz-basierte Marketing-Mentalität.

Download Artikel: SWISS INSIGHTS News #13

For English Version download pdf

Die Autoren
Dr. Steffen Schmidt
Director Marketing Science & Agile Insights,
LINK Marketing Services AG, www.link.ch
Dr. Evmorfia Karampournioti
Assistant Professor, Leibniz University of Hannover,
www. marketing.uni-hannover.de
Dr. Thomas Fandrich
Co-Founder & CGO, quantilope GmbH,
www.quantilope.com
Dr. Frank Buckler
Founder & CEO, Success Drivers GmbH,
www.success-drivers.de
Philipp Reiter
Partner & COO, eye square GmbH,
www.eye-square.com
Dr. Jonathan T. Mall
Co-Founder & CIO, neuroflash GmbH,
www.neuroflash.com
Dr. Thomas Zoëga Ramsøy
Founder & CEO, Neurons Inc.,
www.neuronsinc.com

Download Artikel
Swiss Insights News #13

Institute Member von
SWISS INSIGHTS

www.link.ch

Alle SWISS INSIGHTS News finden Sie hier: SWISS INSIGHTS NEWS

Projekt statbot.swiss: Mehr als nur ein statistischer Bot

Eine Bürgerin sucht nach Daten der öffentlichen Statistik in der Schweiz: Die Wahrscheinlichkeit ist hoch, dass damit eine digitale Odyssee beginnt, statt, dass die Suche nach einer kurzen Suchmaschinenanfrage endet. Denn selbst für erfahrene Recherchierende ist es nicht immer leicht, Daten zu finden: Befinden sich die gesuchten Daten vertikal auf Ebene Bund, Kantone oder Gemeinden? Und welche Behörde oder welches Amt stellt innerhalb einer Ebene die Daten bereit? Die Suchmaschinen haben Mühe, die gesuchten Informationen zu indizieren, da sie sich in verschiedenen Applikationen oder sogar Dokumenten befinden. So klicken sich die Bürger durch, bis sie die gewünschten Informationen erhalten – oder bis sie die zuständige Stelle gefunden haben, bei der sie ihre Anfrage platzieren können.

Machine learning to the rescue?

Können wir nicht einen Algorithmus trainieren, uns die richtigen Antworten auf unsere Fragen zu liefern? Ist es nicht genau das, was Google und Co. machen und nicht immer schaffen? Unsere Schlussfolgerung ist: Wenn die Daten nicht «richtig aufbereitet» sind, dann fehlen die Grundlagen für die Anwendung eines fortgeschrittenen Algorithmus.

Die benötigten Daten der Schweizer Behörden stehen qualitativ hochwertig zur Verfügung. Trotzdem ist es nahezu unmöglich, einen Algorithmus im Umgang mit diesen Daten so zu trainieren, dass er die Frage «was ist der Anteil der registrierten Elektroautos im Kanton Zürich» korrekt beantwortet.

Das seit längerer Zeit bekannte Problem von maschinell nicht lesbaren Datenformaten wie Excel oder PDF spielt dabei nur eine kleine Rolle. Vor allem fehlt es in der Schweiz an einheitlichen Ansätzen für Datenstrukturen; nicht nur zwischen den verschiedenen Datenproduzenten, sondern sogar innerhalb deren jeweiligen Datenportalen. Die Probleme sind:

  1. Qualität (wahr und nicht suggestiv)
  2. Ohne menschliches Zutun sind zeitliche Elemente, räumliche Elemente, Dimensionen und Attribute nicht identifizierbar.
  3. Die Daten sind uneinheitlich sowohl im «Long-Format» wie auch im «Wide-Format» –
  4. zusätzlich findet man manchmal sogar Kreuztabellen oder gar Listen.
  5. Es fehlt eine Standardisierung der verwendeten Codes und Labels.
  6. Die Definitionen der relevanten Daten sind nicht in jedem Fall harmonisiert – beispielsweise errechnen Bund, Kantone und Gemeinden die Bevölkerungszahlen der Stadt Zürich leicht unterschiedlich.
  7. Spalten gleicher Datenkategorien sind unterschiedlich benannt

Als Konsequenz dieser unterschiedlichen Datenstrukturen ist der Bau jeglicher datensatzübergreifenden Applikation mit beträchtlichem Aufwand verbunden – unabhängig davon, ob es sich um eine High End Machine-Learning-Lösung oder um ein simples Indikatorenportal handelt. Selbst wenn nur die Daten aus einem einzigen Datenportal eingelesen werden, kann die Menge der eingelesenen Datasets nicht beliebig vergrössert werden, da man für jedes Dataset einen separaten Code schreiben muss.

Standards and data harmonization to the rescue!

Hier setzen wir mit dem Projekt statbot.swiss an. Finanziert wird es durch eGov Schweiz, geleitet vom Bundesamt für Statistik und der Konferenz der regionalen statistischen Ämter der Schweiz. Technologische Partner sind die Zürcher Hochschule für angewandte Wissenschaften (ZHAW) sowie das Swiss Data Science Center (SDSC).

Das Projekt besteht aus zwei Teilen: Im chronologisch zweiten Teil experimentieren Forschende der Zürcher Hochschule für angewandte Wissenschaften an einem Machine-Learning-Algorithmus, der natürliche Sprache in Datenbankabfragen übersetzen kann [1]. Dieser soll die Antworten in Form von Datenwerten, Tabellen oder Grafiken anzeigen. Das aktuelle Projekt setzt dabei den Fokus absichtlich und bescheiden auf die Abklärung der Machbarkeit und der technischen Limitierungen.

Im bereits abgeschlossenen ersten Teil des Projekts haben wir ein Open Source Data Warehouse [2] gebaut, das Daten aus unterschiedlichen Quellen an einem Ort integriert und harmonisiert. Es lädt die Daten aus unterschiedlichen Schnittstellen, führt die gesamte Transformation («ETL») aus und erstellt alle Daten in einer einheitlichen, definierten Datenstruktur mit dazugehörenden Mapping-Tabellen für Dimensionen. Ziel war auch, die Datenstandardisierung und -harmonisierung voranzubringen.

[1] Die ZHAW leitet das Projekt «INODE – Intelligent Open Data Exploration», das vom EU-Forschungsprogramm Horizon 2020 mit knapp 6 Millionen Euro gefördert wird.).

[2] https://renkulab.io/gitlab/christian.ruiz/statbot-swiss

Abbildung 1: Übersicht über die verschiedenen open source Repositories. Die Machine-Learning-Lösung der ZHAW wird dann sowohl auf die Datenbank, wie auch auf die generierten Trainingsdaten zugreifen. Ein sehr einfaches Frontend soll erstellt werden.

Das Hinzufügen der Daten ist dabei skalierbar: wir konnten Stand heute über 240 «Statbot-Datasets» mit Inputdaten sowohl aus dem Bundesamt für Statistik wie auch aus sechs weiteren regionalen Statistikämtern hinzufügen. Wir haben dabei einen Prozess geschaffen, der keine Programmierung durch Mitarbeitende von teilnehmenden Statistikämtern benötigt. Stattdessen brauchen diese nur das sprichwörtliche Rezept anzugeben, wie die Daten verarbeitet werden sollen: Für einen Milchshake müssen die Früchte gewaschen, geschält, dann in den Mixer gegeben und am Ende mit Milch gemischt werden. Die Reihenfolge dieser Schritte gibt der Mitarbeitende ein einziges Mal ein, dann kann die Maschine regelmässig die aktuellsten Inputdaten holen und die notwendigen Transformationen durchführen.

Wichtig ist dabei auch, dass dieser Endzustand aller Datasets gleich ist, wobei wir hier eine Lösung gefunden haben, die sich an bisherigen Ansätzen orientiert [3]. Als zusätzlicher Schritt müssen daher Dimensionen «harmonisiert» werden. Jede Dimension wie Geschlecht oder Staatsangehörigkeit hat dabei gewisse Codes. Wenn die Standardcodes (üblicherweise aus dem Bundesamt für Statistik) verwendet werden, läuft das Matching ohne grösseren Zusatzaufwand. Ansonsten können neue Mappings hinzugefügt werden, um eine flexible Zuordnung herzustellen.

Das Resultat sind relationale Daten in einer definierten Struktur mit einheitlichen Spaltenbezeichnungen, Zuordnung von Raum, Zeit, Dimensionen sowie Attributen und klar bestimmten Kodierungen [4].

Diese «Statbot-Datasets» sind somit einheitlich strukturiert. Damit ist es leichter, daraus datensatzübergreifende Applikationen zu bauen, beispielsweise eine Machine-Learning-Lösung wie im zweiten Teil des Projekts oder ganz andere Applikationen, die nun auf solche bereinigten Daten zugreifen könnten.

[3] Es orientiert sich sowohl an der Linked Data Lösung von Statistik Stadt Zürich wie auch am SDMX-Format, welches u.a. von Eurostat verwendet wird. Die Überlegungen gehen dabei noch weiter, ob sogar diese Formate generiert werden könnten.

[4] Momentan fehlt eine Vorgabe für eine «definierte Struktur» von Statistikdaten in Schweizer Statistikämtern. Diese funktionale Vorgangsweise könnte auch als Bottom-up-Lösung dienen, um einer Harmonisierung schrittweise näher zu kommen.

Abbildung 2: Ein Beispiel der definierten Datenstruktur eines «Statbot-Datasets». Die ersten beiden Spalten definieren eindeutig die Raumeinheiten. Die nächsten beiden Spalten definieren Zeitelemente (Stichtage sowie Perioden). Danach kommt der Beobachtungswert des Datenpunkts. Alles was rechts der eingezeichneten Linie ist, sind Dimensionen, die von Dataset zu Dataset unterschiedlich sind aber die in Dimensionstabellen definiert sind. Im Bild nicht sichtbar sind angedachte Attributsspalten: Quellenangaben, Definitionsangaben und «Flags» mit weiteren Informationen pro Datenpunkt.

Weiteres Potenzial

Das Projekt lehrt uns viel über Machine Learning. In Machine-Learning-Projekten geht es um weit mehr als den Gebrauch der Algorithmen. Viel Arbeit muss in Grundlagenarbeit gesteckt werden, um die Daten für Algorithmen überhaupt brauchbar zu machen. Dazu gehört auch die Bereitstellung von «Trainingsdaten», also Paare von Fragen in natürlicher Sprache und passenden Antworten in Form von Datenbankabfragen. Die werden dann verwendet, um den Algorithmus zu trainieren. Hier haben wir mit zusätzlichen Sprachinformationen gearbeitet, um sinnvollere Sätze zu generieren, die aber dennoch etwas hölzern erscheinen.

Die klare Trennung von Inhalt und Bezeichnung und die einheitliche Strukturierung und Harmonisierung der Bezeichnungen im Data Warehouse werden es darüber hinaus erlauben, automatisiert hochwertige «Linked Open Data» zu generieren. Linked Open Data sind Daten, die schnittstellenartig per HTTP abgerufen werden können, und die auf weitere Ressourcen verweisen können.

Dies würde vernetzte Datenlösungen ermöglichen, welche Daten aus den verschiedensten Quellen kombinieren könnten und es würde ein semantischer Datenraum geschaffen werden. Das wäre ein zusätzlicher Mehrwert für Nutzende, Firmen sowie das gesamte Statistiksystem der Schweiz, da es weitere maschinelle Anwendungen ermöglichen würde.

Ein Projekt-Teilnehmer hat kürzlich Folgendes treffend formuliert: «Auch nach dem offiziellen Ende des Projekts statbot.swiss glaube ich, dass das Data Warehouse bestehen bleiben wird… Es ist womöglich das erste Mal in der Schweiz, dass öffentliche Daten von verschiedenen Datenproduzenten an einem Ort in einer gemeinsamen, harmonisierten Struktur vorhanden sind.». Die Datenbedürfnisse der potentiellen Machine-Learning-Anwendung haben somit als wesentliche Anforderung dazu geführt, Daten zu strukturieren und zu harmonisieren. Dieses Resultat – das Data Warehouse – könnte viel Potenzial für andere Anwendungen haben.

Ich erinnere an dieser Stelle zunächst an die Bürgerin, die hoffentlich in der Zwischenzeit die gesuchten Daten gefunden hat. Jede Entwicklung, egal ob ein Data Warehouse, ein Bot oder eine andere Anwendung, muss direkt oder indirekt auf die Bedürfnisse der Bürger ausgerichtet sein. Öffentliche Behördendaten sollten einfacher auffindbar, vernetzter und leichter in andere Applikationen integrierbar werden.

Hier möchten wir mit der Community durch persönliche Gespräche, Events und Online stärker ins Gespräch kommen. Einerseits möchten wir die Datenbedürfnisse der Nutzenden besser kennen, um darauf bedarfsorientiert entwickeln zu können. Andererseits können wir damit leichter Lösungen wie den Bot in einer frühen Phase testen und Feedback integrieren. Wenn Sie Interesse haben, können Sie mir gerne formlos eine E-Mail mit Betreff statbot.swiss schreiben.

Dr. Christian Ruiz

Projektleiter Machine Learning
Statistisches Amt Kanton Zürich

christian.ruiz@statistik.ji.zh.ch
+41 43 259 75 12

Der Autor
Dr. Christian Ruiz leitet aktuell das Machine Learning im Statistischen Amt Kanton Zürich. Er hat 13 Jahre Erfahrung in Data Science und 6 Jahre Erfahrung in der praktischen Entwicklung von Machine-Learning-Anwendungen. Er ist Mitgründer von zwei Startups im Bereich Deep Learning, hat drei weitere Machine-Learning-Projekte umgesetzt und andere Projekte begleitet.

Download Artikel
Swiss Insights News #12

Alle SWISS INSIGHTS News finden Sie hier: SWISS INSIGHTS NEWS

Dirty Data in Online Surveys: Wie Sie die Datenqualität vor und nach der Feldphase verbessern können.

Die 1986 kurz nach dem Start explodierte Challenger-Raumfähre der NASA mit sieben Astronauten[1] und das wegen eines Fehlers in Google Maps versehentlich abgerissene Haus von Lindsey Diaz[2] sind beides Konsequenzen mangelnder Datenqualität.

Als multifaktorieller, unscharfer Begriff ist Datenqualität kein «Messerwert», sondern wird multimodal erarbeitet: bei Online-Befragungen vor der Feldphase mittels elaboriertem Sampling, Fragebogenkonzeption und Pretesting. Aber auch danach in der Analyse und der Bereinigung der gewonnenen Daten. Hinzu kommen Meta-Aspekte der Datenqualität wie Passung der Daten zur Forschungsfrage, Prozesstransparenz, faire Datengewinnung oder proaktiver Datenschutz, die Empowerment für Kunden bewirken.

Datenqualität – was ist das?

57 Millionen Suchergebnisse bei google verdeutlichien die Relevanz des Begriffs «Data Quality». Im täglichen Sprachgebrauch wird der Begriff «Datenqualität» häufig mit der Richtigkeit (Präzision) von Daten gleichgesetzt. Um diese zu erhöhen, werden genauere Messinstrumente, rigorose Datenerhebungsverfahren und komplexe statistische Methoden zum Aggregieren von Daten entwickelt[3]. Auch der Fokus der nachfolgend präsentierten Massnahmen zur Erhöhung der Datenqualität liegt auf der Verbesserung der klassischen Gütekriterien Validität und Reliabilität von Umfrageergebnissen. Darüber hinaus differenzieren Konzepte wie das der Universität Greifswald Datenqualität weiter, hier in die Dimensionen Integrität, Komplettheit und Korrektheit (Konsistenz und Akkuratheit)[4] – und es existieren in der Literatur zahlreiche überlappende Modelle[5].

Bild 1: Datenqualitätsmodell der Universität Greifswald nach Schmidt et al. (2021)

Insbesondere im Bereich der Markt- und Meinungsforschung stehen am Ende der Datenverarbeitung Auftraggebende oder Forschende als Consumer der Daten. Daher ist es besonders wichtig, zu verstehen, dass Datenqualität aus Konsumentensicht oft über die Präzision von Werten hinausgeht.

Consumer als Zielgrösse

Welche Aspekte der Datenqualität für Consumer ausschlaggebend sind, untersuchten Richard Y. Wang und Diane M. Strong in einer zweistufigen empirischen Studie. Definiert wurde Datenqualität dabei über das verbreitete «fitness-for-use»-Konzept[6], welches Datenqualität durch die Eignung der Daten zum von Consumern angedachten Zweck bestimmt. Das Ergebnis der Studie war ein vierdimensionales Modell von Datenqualität, welches das bestehende Konzept empirisch operationalisiert[6].

Die vier Dimensionen sind: intrinsic data quality, contextual data quality, representational data quality und accessibility data quality. Sie zeigen, dass für Consumer der Begriff der Datenqualität vielschichtig ist und nicht nur im Sinne der Richtigkeit verstanden werden sollte. Vielmehr sind auch Aspekte wie Glaubwürdigkeit, Relevanz, Vollständigkeit, Interpretierbarkeit, Konsistenz oder Zugänglichkeit der Daten für Consumer ausschlaggebend[4].

Tabelle 1: Dimensionen der Datenqualität mit Ausprägungen nach Wang und Strong (1996).

Vor der Befragung

Jede Onlinebefragung ist trotz Abwesenheit einer interviewenden Person und den damit wegfallenden primären Interviewer-Effekten (deshalb oft als «verzerrungsfrei» angepriesen) immer eine Situation, in der im Extremfall eine parasoziale Interaktion mit einem imaginären Interviewer stattfindet. Oder die mindestens irgendeine Art von kognitivem Stimulus-Response-Prozess bei Befragten auslöst. Dieser gliedert sich als Cognitive Aspects of Survey Methodology (CASM) vereinfacht in vier Schritte[7-10]:

  1. Lesen und Verstehen der Frage
  2. Abrufen relevanter Informationen aus dem Gedächtnis
  3. Beurteilung der abgerufenen Informationen bezüglich Vollständigkeit und Relevanz, kognitive Editierung der präferierten Antwort auf das gewünschte Antwortformat und Angemessenheit
  4. Antwortabgabe

Die kognitive Verarbeitung folgt dabei den Zweiprozessmodellen[11-12] und geschieht elaboriert (intensiv, zentral) oder peripher (oberflächlich, schnell, nebenbei, heuristisch). Eine elaborierte Verarbeitung begünstigen unter anderem die gute Verständlichkeit der Frage, die kognitive Fähigkeit sowie die Motivation der Antwortenden, genügend Zeit und wenig Ablenkung. Eine periphere Verarbeitung öffnet die Tür für Verzerrungseffekte noch weiter.

Zehn Gebote für gute Fragebögen

Bei dieser Verarbeitung sind eine Menge latenter Störeinflüsse (Response Bias[13]) im Spiel, die sich nur schwer kontrollieren lassen. Trotzdem kann im Design von Fragebögen mit zehn Geboten[9], soweit möglich und ökonomisch sinnvoll, vorgesorgt werden, wobei diese weniger als «starre» Regeln, denn als Reflexionsbasis für das Finetuning von Fragebögen dienen:

  1. einfache, unzweideutige Begriffe (werden von allen Befragten sehr ähnlich verstanden)
  2. unklare Begriffe definieren
  3. keine langen/komplexen Fragen
  4. keine hypothetischen Fragen
  5. keine Doppelstimuli/Doppelverneinung
  6. keine Unterstellungen/Suggestivfragen
  7. keine Fragen nach Informationen, die viele Befragte vermutlich nicht kennen
  8. Fragen mit eindeutigem zeitlichen Bezug
  9. Antwortkategorien sind erschöpfend und disjunkt (überschneidungsfrei)
  10. Kontext einer Frage wirkt sich nicht auf deren Beantwortung aus

Zum Beispiel kann eine Frage wie «Wurden in Ihrer Schule bereits Projekte im Rahmen des LP21 umgesetzt?» vielleicht Lehrpersonen gestellt werden, aber nicht Eltern (Gebote 2 und 7). Und «Experten denken, dass CO2-Massnahmen zu langsam umgesetzt werden – halten Sie diese Ansicht für richtig oder für falsch?» verstösst gegen das sechste Gebot. Sogar in wissenschaftlich angesehenen Studien werden Fragen gestellt, die sich in erheblichem Masse der Erinnerbarkeit entziehen (Mobiltelefonnutzung in den letzten 6 Monaten): «detailed questions were asked about the initial pattern of use, including network operator and average number and duration of calls, and any subsequent changes in use patterns. Questions were also asked about the proportion of time the phones were used in urban, suburban or rural settings»[14] (Gebot 3, 7, 8). Entsprechend der Konversationsmaximen nach Grice[15] gilt auch für Formulierungen in Fragebögen:

• Qualität (wahr und nicht suggestiv)
• Quantität (so ausführlich wie nötig, so kurz wie möglich)
• Relevanz (zielgruppengerecht, nur fragen und ansprechen, was zum Thema gehört)
• Modalität (klar, eindeutig, kompakt und geordnet)

Weiter sollten Übertragungseffekte minimiert werden: Steht vor der Frage, «Welche Partei wählen Sie am Wahlsonntag?» eine Frage zu Umweltkatastrophen oder eine zum Wirtschaftswachstum? Ist Fleisch 25% fett oder 75% mager?[16] Übertragungs- und Framing-Effekte sollten mit möglichst objektiven Formulierungen und Kontexten verringert werden.

Skalen sind Korsetts, die passen müssen

Auch Rating-Skalen an sich können Verzerrungen unterstützen, da Antworten von den Befragten «passend» gemacht werden. «Trash-Antworten» können reduziert werden, in dem eine Ausweichkategorie «keine Antwort» angeboten wird. Dadurch gehen leider einige gültige Antworten verloren, die versteckte Datenverschmutzung, wenn wegen Fehlen einer Ausweichkategorie einfach irgendwas angekreuzt wird[17], nimmt jedoch ab. Eine mittlere Ausprägung wie «teils/teils» wird ebenfalls empfohlen[18]. Rating-Skalen mit 5 bis 7 vollverbalisierten Antwortkategorien werden mehrheitlich als ratsam erachtet – zu wenige Kategorien differenzieren ungenügend, zu viele sind inhaltlich schwer zu unterscheiden, fehlende Verbalisierung ist schwerer zu interpretieren[18]. Einige weitere Verzerrungseffekte, denen in Online-Befragungen Beachtung geschenkt werden sollte, sind Akquieszenz (generelle Zustimmungstendenz in Skalen), Non-Attitude (beliebige Antworten bei Desinteresse, Zeitknappheit), soziale Erwünschtheit (Erwartungskonformität), Sponsorship-Effekte (Antworten dem Auftraggeber zuliebe), Situationseffekte (Kontext und Ort des Ausfüllens, Anwesenheit von Bekannten, Helfern), Tendenzen zur Mitte (Meiden von Extremen), Lageeffekte (Primacy/Recency-Effekt: Erste und letzte Antwortvorgaben werden besser erinnert und bevorzugt, weil salienter) oder Ankereffekte (Übertragung, Beeinflussung durch Vorfragen, selektives Antwortuniversum, Priming). Schwarz[19] hat zu Letzterem schon 1999 festgestellt, dass Antwortvorgaben implizite Anker setzen. So antworteten unter Verwendung der linken Skala (vgl. Bild 2) nur 16% der Befragten mit «mehr als 2 ½ Stunden». Mit der rechten Skala hingegen insgesamt 38%, obwohl dieselbe Frage gestellt worden war. Die Extremposition der Antwortvorgabe «mehr als 2 ½ Stunden» in der linken Skala lässt die Teilnehmenden unterreportieren, rechts ist der umgekehrte Effekt der Fall.

Bild 2: Ankereffekt der Antwortvorgaben bei Schwarz (1999)

Die Datenqualität ist auch beeinflusst durch die Frageformate: offene Textfelder versus Skalen versus halboffene Formate, Validierungen direkt im Fragebogen, Regie-Anweisungen, visuelle Darstellung von Skalen, Mobildarstellung, technische Einflüsse wie schwer bedienbare Schieberegler; und ebenso Herausforderungen bestimmter Zielgruppen wie Kinder oder digital unerfahrene Benutzer. Pretesting sowie Regie-Hinweise bezüglich der erwarteten Dateneingaben in punkto Umfang, Art und Format der Eingaben sind im Fragebogen fast immer vorteilhaft.

Einige Probleme der Datenqualität können somit durch intensive Reflexion, Einbinden von Fragebogen-Consultants, ausführliches Pretesting (z. B. auch mit Explorieren oder Split-Half-Setups verschiedener Frageformate) und Überarbeiten von bereits bestehenden Fragebögen durchaus adressiert werden.

Nach der Befragung

Mit einem Prämienvolumen von knapp 6 Mrd. CHF (1) stellt die Motorfahrzeugsparte (MFZ) das grösste Auch im Nachgang können Massnahmen zur Verbesserung der Datenqualität getroffen werden. Diese beziehen sich hauptsächlich auf verzerrende Effekte, die Teilnehmende durch ihr Verhalten im Fragebogen erzeugen.

Während einige dieser Effekte, wie z. B. Ausreisser*, Speeder** oder inkomplette Fragebögen unabhängig vom Befragungsmodus auftreten (z. B. auch in CATI, Face-to-Face), häufen sich gerade bei schriftlichen und Online-Befragungen sogenannte «Response-Sets» (Tendenzen von Teilnehmenden, eine Reihe von Fragen in einem bestimmten Muster zu beantworten)[20]. Bei Online-Befragungen wird dies zusätzlich durch die erhöhte empfundene Anonymität verschärft, da mit steigender Anonymität die Tendenz steigt, Items weniger ernsthaft auszufüllen und falsche oder fiktive Antworten abzugeben[20].

*Datenpunkt, der bedeutend von den restlichen Datenpunkten entfernt liegt.
**Teilnehmende, die den Fragebogen in einer Zeit komplettieren, die bei seriösem Durchlesen der Fragen und Antwortmöglichkeiten nicht plausibel ist.

Klassische Antwortmuster, die in schriftlichen Befragungen mit Rating-Skalen beobachtet werden können, sind: Response-Ranges (Verwendung nur eines bestimmten Bereichs der Skala, unabhängig vom Inhalt der Frage oder der Ausrichtung der Antwortvorgaben), Extreme Checking Style (auch Extreme Response Style[21], ERS, genannt: abwechselndes Anwählen der linken und rechten Extrempunkte einer Skala), Muster-Ankreuzer (Ankreuzen von Mustern wie z. B. Diagonalen oder Pfeilen in Tabellenfragen) und Straightliner (Null-Varianz-Antwortverhalten, d. h. Auswahl eines bestimmten Skalenpunkts, unabhängig von der Skalenbreite, -ausrichtung und Frageformulierung). Gerade Letztere sind bei unmotivierten Teilnehmenden beliebt. Jandura identifiziert in einer offenen Online-Befragung zu Mediennutzungsverhalten von Jugendlichen bei einem Viertel der Befragten ein Null-Varianz-Antwortverhalten in mindestens einer der neun beantworteten Fragen[20]. Allerdings muss hier relativiert werden, dass Straightlining unter gewissen Umständen valide ist, beispielsweise, wenn eine Item-Batterie eine hohe interne Konsistenz aufweist und alle Items in dieselbe Richtung formuliert sind[22]. Um valides Straightlining auszuschliessen, könnte ein Item pro Frageblock vor der Feldphase umgepolt werden.

Um die Qualität der Ergebnisse einer Befragung zu erhöhen, sollten Fälle mit den beschriebenen Effekten untersucht und allenfalls aus der Analyse exkludiert werden. Während dies bei einigen Effekten relativ einfach möglich ist (z. B. können Speeder anhand der Bearbeitungszeit und inkomplette Fragebögen anhand der fehlenden Antworten schnell identifiziert werden), ist für andere Effekte ein genaueres Hinsehen notwendig (siehe Tabelle 2). Der Prozess kann dabei digital mit multifaktoriellen, statistischen Prozeduren unterstützt werden. Die Entscheidung, ob ein spezifischer Fall nun als Quality Fail ausgeschlossen werden soll oder nicht, sollte jedoch durch geschulte Mitarbeitende nach der Sichtung des entsprechenden Fragebogens und nicht auf Basis einzelner Kriterien erfolgen.

Tabelle 2: Erkennen von verzerrenden Effekten im Datensatz, angelehnt an Jandura (2018) und Reuning und Plutzer (2020).

Fazit

In einem kurzen Artikel kann das Thema Datenqualität lediglich anhand ausgewählter Aspekte angeschnitten werden. Zusammenfassend ergeben sich drei essenzielle Punkte:

  1. Eine Ausrichtung der Datenqualität auf Abnehmergrupp
  2. Wesentliche Weichen für die Datenqualität werden schon vor der Feldphase gestellt.
  3. Eine Datenqualitätsanalyse und Datenbereinigung nach der Feldphase ist technisch möglich und nützlich.

Dies sind wichtige Erkenntnisse für validere Analysen, für die Kundenkommunikation, den Projektaufbau und das Branchen-Image.

Datenqualität geht zudem einher mit Themen wie Erhebungs- und Verwendungsethik, Zweckbestimmung von Daten, Panelpflege, Datenschutz und mit der Idee, auch komplexe Prozesse der Auswertungslogik, Algorithmen und Deep-Learning-Modelle so transparent wie möglich zu machen. Ein positives Wechselverhältnis von Datengebenden und -nehmenden widerspiegelt sich in einem emanzipierten und daher lohnenswerten Verständnis von Datenqualität für alle.

Literaturverzeichnis weiter unten

For English Version download pdf

Raffael Meier

Mitgründer und CTO von onlineumfragen.com und Pionier der Onlinebefragungstechnologie.

raffael.meier@onlineumfragen.com
+41 44 500 5137

Nina Gwerder

Consultant bei onlineumfragen.com

nina.gwerder@onlineumfragen.com
+41 44 500 5140

Die Autoren
Raffael Meier, MA, MSc – Mitgründer und CTO von onlineumfragen.com und Pionier der Onlinebefragungstechnologie. Er befasst sich mit gesellschaftlichen und methodologischen Aspekten von Daten und berät Kundinnen und Kunden mit dem Ziel «Empowerment».

Nina Gwerder, MA – ist Consultant bei onlineumfragen.com und spezialisiert auf die Beratung namhafter nationaler und internationaler Unternehmen rund um das Thema Online-Befragungen und deren effektiver Auswertung.

Download Artikel
Swiss Insights News #11

Institute Member von
SWISS INSIGHTS

onlineumfragen.com

Alle SWISS INSIGHTS News finden Sie hier: SWISS INSIGHTS NEWS

Literaturverzeichnis
[1] Fisher, C. W., & Kingma, B. R. (2001). «Criticality of data quality as exemplified in two disasters », Information & Management, 39(2), 109–116. https://doi.org/10.1016/S0378-7206(01)00083-0
[2] Wrong house gets torn down based on a Google Maps error. Engadget. (n.d.). Abgerufen am 17. August 2022, von https://www.engadget.com/2016-03-24-texas-wrong-house-torn-down-google-maps.html
[3] Keller, S., Korkmaz, G., Orr, M., Schroeder, A. und Shipp, S. (2017). «The Evolution of Data Quality: Understanding the Transdisciplinary Origins of Data Quality Concepts and Approaches», Annual Review of Statistics and Its Application, 4(1), S.85-108.
[4] Schmidt, C. O., Struckmann, S., Enzenbach, C., Reineke, A., Stausberg, J., Damerow, S., Huebner, M., Schmidt, B., Sauerbrei, W., & Richter, A. (2021). «Facilitating harmonized data quality assessments. A data quality framework for observational health research data collections with software implementations in R», BMC Medical Research Methodology, 21(1). https://doi.org/10.1186/S12874-021-01252-7
[5] Haug, A. (2021). «Understanding the differences across data quality classifications: a literature review and guidelines for future research», Industrial Management and Data Systems, 121(12), 2651–2671. https://doi.org/10.1108/IMDS-12-2020-0756
[6] Wang, R.Y. und Strong, D.M. (1996). «Beyond Accuracy: What Data Quality Means to Data Consumers», Journal of Management Information Systems, 12(4), S.5-33.
[7] Cannell, C. F., Miller, P. v., & Oksenberg, L. (1981). «Research on interviewing techniques», in S. Leinhardt (Ed.), Social Methodology. Jossey-Bass Publishers.
[8] Tourangeau, R., Rips, L. J., & Rasinski, K. (2000). The Psychology of Survey Response. Cambridge: Cambridge University Press. https://doi.org/10.1017/CBO9780511819322
[9] Porst, R. (2014). Fragebogen. Wiesbaden: Springer Fachmedien. https://doi.org/10.1007/978-3-658-02118-4
[10] Tourangeau, R. (2018). «The survey response process from a cognitive viewpoint», Quality Assurance in Education, 26(2), 169–181. https://doi.org/10.1108/QAE-06-2017-0034
[11] Petty, R. E., & Cacioppo, J. T. (1986). «The elaboration likelihood model of persuasion», Advances in Experimental Social Psychology, 19(C), 123–205. https://doi.org/10.1016/S0065-2601(08)60214-2
[12] Dual-process theories in social psychology. PsycNET. (n.d.). Abgerufen am 17. August 2022, von https://psycnet.apa.org/record/1999-02377-000
[13] Bogner, Kathrin und Landrock, Uta (2015). Antworttendenzen in standardisierten Umfragen. Mannheim, GESIS Leibniz Institut für Sozialwissenschaften (GESIS Survey Guidelines). https://doi.org/10.15465/gesis-sg_016
[14] Cardis, E., Richardson, L., Deltour, I. et al. (2007). «The INTERPHONE study: design, epidemiological methods, and description of the study population», Eur J Epidemiol, 22, 647–664. https://doi.org/10.1007/s10654-007-9152-z
[15] Grice, H. P. (1975). «Logic and Conversation», in P. Cole, & J. L. Morgan. (Eds.), Syntax and Semantics, Vol. 3, Speech Acts (pp. 41-58). New York: Academic Press.
[16] Levin, I. P., & Gaeth, G. J. (1988). «How Consumers are Affected by the Framing of Attribute Information Before and After Consuming the Product», Journal of Consumer Research,
[15] (3), 374. https://doi.org/10.1086/209174
[17] Berekoven, L., Eckert, W., & Ellenrieder, P. (2004). Marktforschung. Wiesbaden: Gabler Verlag. https://doi.org/10.1007/978-3-663-05734-5
[18] Menold, N., & Bogner, K. (2015). «Gestaltung von Ratingskalen in Fragebögen (Version 1.1)», GESIS Survey Guidelines, 13. https://doi.org/10.15465/GESIS-SG_015
[19] Schwarz, N. (1999). «Self-reports: How the questions shape the answers», American Psychologist, 54(2), 93–105. https://doi.org/10.1037/0003-066X.54.2.93
[20] Jandura, O. (2018). «Fake Data? Zur Trennung von sauberen und verschmutzten Daten bei selbst-administrierten Befragungsmodi», in Rössler P. & Rossman, C. (Hrsg.), Kumulierte Evidenzen. Wiesbaden: Springer VS, S. 207-223.
[21] Greenleaf, E. A. (1992). «Measuring Extreme Response Style», The Public Opinion Quarterly, 56(3), 328–351. http://www.jstor.org/stable/2749156
[22] Reunig, K. und Plutzer E. (2020). «Valid vs. Invalid Straightlining: The Complex Relationship Between Straightlining and Data Quality», Survey Research Methods, 14(5), S.439-459.

Literaturverzeichnis