Projekt statbot.swiss: Mehr als nur ein statistischer Bot

Eine Bürgerin sucht nach Daten der öffentlichen Statistik in der Schweiz: Die Wahrscheinlichkeit ist hoch, dass damit eine digitale Odyssee beginnt, statt, dass die Suche nach einer kurzen Suchmaschinenanfrage endet. Denn selbst für erfahrene Recherchierende ist es nicht immer leicht, Daten zu finden: Befinden sich die gesuchten Daten vertikal auf Ebene Bund, Kantone oder Gemeinden? Und welche Behörde oder welches Amt stellt innerhalb einer Ebene die Daten bereit? Die Suchmaschinen haben Mühe, die gesuchten Informationen zu indizieren, da sie sich in verschiedenen Applikationen oder sogar Dokumenten befinden. So klicken sich die Bürger durch, bis sie die gewünschten Informationen erhalten – oder bis sie die zuständige Stelle gefunden haben, bei der sie ihre Anfrage platzieren können.

Machine learning to the rescue?

Können wir nicht einen Algorithmus trainieren, uns die richtigen Antworten auf unsere Fragen zu liefern? Ist es nicht genau das, was Google und Co. machen und nicht immer schaffen? Unsere Schlussfolgerung ist: Wenn die Daten nicht «richtig aufbereitet» sind, dann fehlen die Grundlagen für die Anwendung eines fortgeschrittenen Algorithmus.

Die benötigten Daten der Schweizer Behörden stehen qualitativ hochwertig zur Verfügung. Trotzdem ist es nahezu unmöglich, einen Algorithmus im Umgang mit diesen Daten so zu trainieren, dass er die Frage «was ist der Anteil der registrierten Elektroautos im Kanton Zürich» korrekt beantwortet.

Das seit längerer Zeit bekannte Problem von maschinell nicht lesbaren Datenformaten wie Excel oder PDF spielt dabei nur eine kleine Rolle. Vor allem fehlt es in der Schweiz an einheitlichen Ansätzen für Datenstrukturen; nicht nur zwischen den verschiedenen Datenproduzenten, sondern sogar innerhalb deren jeweiligen Datenportalen. Die Probleme sind:

  1. Qualität (wahr und nicht suggestiv)
  2. Ohne menschliches Zutun sind zeitliche Elemente, räumliche Elemente, Dimensionen und Attribute nicht identifizierbar.
  3. Die Daten sind uneinheitlich sowohl im «Long-Format» wie auch im «Wide-Format» –
  4. zusätzlich findet man manchmal sogar Kreuztabellen oder gar Listen.
  5. Es fehlt eine Standardisierung der verwendeten Codes und Labels.
  6. Die Definitionen der relevanten Daten sind nicht in jedem Fall harmonisiert – beispielsweise errechnen Bund, Kantone und Gemeinden die Bevölkerungszahlen der Stadt Zürich leicht unterschiedlich.
  7. Spalten gleicher Datenkategorien sind unterschiedlich benannt

Als Konsequenz dieser unterschiedlichen Datenstrukturen ist der Bau jeglicher datensatzübergreifenden Applikation mit beträchtlichem Aufwand verbunden – unabhängig davon, ob es sich um eine High End Machine-Learning-Lösung oder um ein simples Indikatorenportal handelt. Selbst wenn nur die Daten aus einem einzigen Datenportal eingelesen werden, kann die Menge der eingelesenen Datasets nicht beliebig vergrössert werden, da man für jedes Dataset einen separaten Code schreiben muss.

Standards and data harmonization to the rescue!

Hier setzen wir mit dem Projekt statbot.swiss an. Finanziert wird es durch eGov Schweiz, geleitet vom Bundesamt für Statistik und der Konferenz der regionalen statistischen Ämter der Schweiz. Technologische Partner sind die Zürcher Hochschule für angewandte Wissenschaften (ZHAW) sowie das Swiss Data Science Center (SDSC).

Das Projekt besteht aus zwei Teilen: Im chronologisch zweiten Teil experimentieren Forschende der Zürcher Hochschule für angewandte Wissenschaften an einem Machine-Learning-Algorithmus, der natürliche Sprache in Datenbankabfragen übersetzen kann [1]. Dieser soll die Antworten in Form von Datenwerten, Tabellen oder Grafiken anzeigen. Das aktuelle Projekt setzt dabei den Fokus absichtlich und bescheiden auf die Abklärung der Machbarkeit und der technischen Limitierungen.

Im bereits abgeschlossenen ersten Teil des Projekts haben wir ein Open Source Data Warehouse [2] gebaut, das Daten aus unterschiedlichen Quellen an einem Ort integriert und harmonisiert. Es lädt die Daten aus unterschiedlichen Schnittstellen, führt die gesamte Transformation («ETL») aus und erstellt alle Daten in einer einheitlichen, definierten Datenstruktur mit dazugehörenden Mapping-Tabellen für Dimensionen. Ziel war auch, die Datenstandardisierung und -harmonisierung voranzubringen.

[1] Die ZHAW leitet das Projekt «INODE – Intelligent Open Data Exploration», das vom EU-Forschungsprogramm Horizon 2020 mit knapp 6 Millionen Euro gefördert wird.).

[2] https://renkulab.io/gitlab/christian.ruiz/statbot-swiss

Abbildung 1: Übersicht über die verschiedenen open source Repositories. Die Machine-Learning-Lösung der ZHAW wird dann sowohl auf die Datenbank, wie auch auf die generierten Trainingsdaten zugreifen. Ein sehr einfaches Frontend soll erstellt werden.

Das Hinzufügen der Daten ist dabei skalierbar: wir konnten Stand heute über 240 «Statbot-Datasets» mit Inputdaten sowohl aus dem Bundesamt für Statistik wie auch aus sechs weiteren regionalen Statistikämtern hinzufügen. Wir haben dabei einen Prozess geschaffen, der keine Programmierung durch Mitarbeitende von teilnehmenden Statistikämtern benötigt. Stattdessen brauchen diese nur das sprichwörtliche Rezept anzugeben, wie die Daten verarbeitet werden sollen: Für einen Milchshake müssen die Früchte gewaschen, geschält, dann in den Mixer gegeben und am Ende mit Milch gemischt werden. Die Reihenfolge dieser Schritte gibt der Mitarbeitende ein einziges Mal ein, dann kann die Maschine regelmässig die aktuellsten Inputdaten holen und die notwendigen Transformationen durchführen.

Wichtig ist dabei auch, dass dieser Endzustand aller Datasets gleich ist, wobei wir hier eine Lösung gefunden haben, die sich an bisherigen Ansätzen orientiert [3]. Als zusätzlicher Schritt müssen daher Dimensionen «harmonisiert» werden. Jede Dimension wie Geschlecht oder Staatsangehörigkeit hat dabei gewisse Codes. Wenn die Standardcodes (üblicherweise aus dem Bundesamt für Statistik) verwendet werden, läuft das Matching ohne grösseren Zusatzaufwand. Ansonsten können neue Mappings hinzugefügt werden, um eine flexible Zuordnung herzustellen.

Das Resultat sind relationale Daten in einer definierten Struktur mit einheitlichen Spaltenbezeichnungen, Zuordnung von Raum, Zeit, Dimensionen sowie Attributen und klar bestimmten Kodierungen [4].

Diese «Statbot-Datasets» sind somit einheitlich strukturiert. Damit ist es leichter, daraus datensatzübergreifende Applikationen zu bauen, beispielsweise eine Machine-Learning-Lösung wie im zweiten Teil des Projekts oder ganz andere Applikationen, die nun auf solche bereinigten Daten zugreifen könnten.

[3] Es orientiert sich sowohl an der Linked Data Lösung von Statistik Stadt Zürich wie auch am SDMX-Format, welches u.a. von Eurostat verwendet wird. Die Überlegungen gehen dabei noch weiter, ob sogar diese Formate generiert werden könnten.

[4] Momentan fehlt eine Vorgabe für eine «definierte Struktur» von Statistikdaten in Schweizer Statistikämtern. Diese funktionale Vorgangsweise könnte auch als Bottom-up-Lösung dienen, um einer Harmonisierung schrittweise näher zu kommen.

Abbildung 2: Ein Beispiel der definierten Datenstruktur eines «Statbot-Datasets». Die ersten beiden Spalten definieren eindeutig die Raumeinheiten. Die nächsten beiden Spalten definieren Zeitelemente (Stichtage sowie Perioden). Danach kommt der Beobachtungswert des Datenpunkts. Alles was rechts der eingezeichneten Linie ist, sind Dimensionen, die von Dataset zu Dataset unterschiedlich sind aber die in Dimensionstabellen definiert sind. Im Bild nicht sichtbar sind angedachte Attributsspalten: Quellenangaben, Definitionsangaben und «Flags» mit weiteren Informationen pro Datenpunkt.

Weiteres Potenzial

Das Projekt lehrt uns viel über Machine Learning. In Machine-Learning-Projekten geht es um weit mehr als den Gebrauch der Algorithmen. Viel Arbeit muss in Grundlagenarbeit gesteckt werden, um die Daten für Algorithmen überhaupt brauchbar zu machen. Dazu gehört auch die Bereitstellung von «Trainingsdaten», also Paare von Fragen in natürlicher Sprache und passenden Antworten in Form von Datenbankabfragen. Die werden dann verwendet, um den Algorithmus zu trainieren. Hier haben wir mit zusätzlichen Sprachinformationen gearbeitet, um sinnvollere Sätze zu generieren, die aber dennoch etwas hölzern erscheinen.

Die klare Trennung von Inhalt und Bezeichnung und die einheitliche Strukturierung und Harmonisierung der Bezeichnungen im Data Warehouse werden es darüber hinaus erlauben, automatisiert hochwertige «Linked Open Data» zu generieren. Linked Open Data sind Daten, die schnittstellenartig per HTTP abgerufen werden können, und die auf weitere Ressourcen verweisen können.

Dies würde vernetzte Datenlösungen ermöglichen, welche Daten aus den verschiedensten Quellen kombinieren könnten und es würde ein semantischer Datenraum geschaffen werden. Das wäre ein zusätzlicher Mehrwert für Nutzende, Firmen sowie das gesamte Statistiksystem der Schweiz, da es weitere maschinelle Anwendungen ermöglichen würde.

Ein Projekt-Teilnehmer hat kürzlich Folgendes treffend formuliert: «Auch nach dem offiziellen Ende des Projekts statbot.swiss glaube ich, dass das Data Warehouse bestehen bleiben wird… Es ist womöglich das erste Mal in der Schweiz, dass öffentliche Daten von verschiedenen Datenproduzenten an einem Ort in einer gemeinsamen, harmonisierten Struktur vorhanden sind.». Die Datenbedürfnisse der potentiellen Machine-Learning-Anwendung haben somit als wesentliche Anforderung dazu geführt, Daten zu strukturieren und zu harmonisieren. Dieses Resultat – das Data Warehouse – könnte viel Potenzial für andere Anwendungen haben.

Ich erinnere an dieser Stelle zunächst an die Bürgerin, die hoffentlich in der Zwischenzeit die gesuchten Daten gefunden hat. Jede Entwicklung, egal ob ein Data Warehouse, ein Bot oder eine andere Anwendung, muss direkt oder indirekt auf die Bedürfnisse der Bürger ausgerichtet sein. Öffentliche Behördendaten sollten einfacher auffindbar, vernetzter und leichter in andere Applikationen integrierbar werden.

Hier möchten wir mit der Community durch persönliche Gespräche, Events und Online stärker ins Gespräch kommen. Einerseits möchten wir die Datenbedürfnisse der Nutzenden besser kennen, um darauf bedarfsorientiert entwickeln zu können. Andererseits können wir damit leichter Lösungen wie den Bot in einer frühen Phase testen und Feedback integrieren. Wenn Sie Interesse haben, können Sie mir gerne formlos eine E-Mail mit Betreff statbot.swiss schreiben.

Dr. Christian Ruiz

Projektleiter Machine Learning
Statistisches Amt Kanton Zürich

christian.ruiz@statistik.ji.zh.ch
+41 43 259 75 12

Der Autor
Dr. Christian Ruiz leitet aktuell das Machine Learning im Statistischen Amt Kanton Zürich. Er hat 13 Jahre Erfahrung in Data Science und 6 Jahre Erfahrung in der praktischen Entwicklung von Machine-Learning-Anwendungen. Er ist Mitgründer von zwei Startups im Bereich Deep Learning, hat drei weitere Machine-Learning-Projekte umgesetzt und andere Projekte begleitet.

Download Artikel
Swiss Insights News #12

Alle SWISS INSIGHTS News finden Sie hier: SWISS INSIGHTS NEWS

Dirty Data in Online Surveys: Wie Sie die Datenqualität vor und nach der Feldphase verbessern können.

Die 1986 kurz nach dem Start explodierte Challenger-Raumfähre der NASA mit sieben Astronauten[1] und das wegen eines Fehlers in Google Maps versehentlich abgerissene Haus von Lindsey Diaz[2] sind beides Konsequenzen mangelnder Datenqualität.

Als multifaktorieller, unscharfer Begriff ist Datenqualität kein «Messerwert», sondern wird multimodal erarbeitet: bei Online-Befragungen vor der Feldphase mittels elaboriertem Sampling, Fragebogenkonzeption und Pretesting. Aber auch danach in der Analyse und der Bereinigung der gewonnenen Daten. Hinzu kommen Meta-Aspekte der Datenqualität wie Passung der Daten zur Forschungsfrage, Prozesstransparenz, faire Datengewinnung oder proaktiver Datenschutz, die Empowerment für Kunden bewirken.

Datenqualität – was ist das?

57 Millionen Suchergebnisse bei google verdeutlichien die Relevanz des Begriffs «Data Quality». Im täglichen Sprachgebrauch wird der Begriff «Datenqualität» häufig mit der Richtigkeit (Präzision) von Daten gleichgesetzt. Um diese zu erhöhen, werden genauere Messinstrumente, rigorose Datenerhebungsverfahren und komplexe statistische Methoden zum Aggregieren von Daten entwickelt[3]. Auch der Fokus der nachfolgend präsentierten Massnahmen zur Erhöhung der Datenqualität liegt auf der Verbesserung der klassischen Gütekriterien Validität und Reliabilität von Umfrageergebnissen. Darüber hinaus differenzieren Konzepte wie das der Universität Greifswald Datenqualität weiter, hier in die Dimensionen Integrität, Komplettheit und Korrektheit (Konsistenz und Akkuratheit)[4] – und es existieren in der Literatur zahlreiche überlappende Modelle[5].

Bild 1: Datenqualitätsmodell der Universität Greifswald nach Schmidt et al. (2021)

Insbesondere im Bereich der Markt- und Meinungsforschung stehen am Ende der Datenverarbeitung Auftraggebende oder Forschende als Consumer der Daten. Daher ist es besonders wichtig, zu verstehen, dass Datenqualität aus Konsumentensicht oft über die Präzision von Werten hinausgeht.

Consumer als Zielgrösse

Welche Aspekte der Datenqualität für Consumer ausschlaggebend sind, untersuchten Richard Y. Wang und Diane M. Strong in einer zweistufigen empirischen Studie. Definiert wurde Datenqualität dabei über das verbreitete «fitness-for-use»-Konzept[6], welches Datenqualität durch die Eignung der Daten zum von Consumern angedachten Zweck bestimmt. Das Ergebnis der Studie war ein vierdimensionales Modell von Datenqualität, welches das bestehende Konzept empirisch operationalisiert[6].

Die vier Dimensionen sind: intrinsic data quality, contextual data quality, representational data quality und accessibility data quality. Sie zeigen, dass für Consumer der Begriff der Datenqualität vielschichtig ist und nicht nur im Sinne der Richtigkeit verstanden werden sollte. Vielmehr sind auch Aspekte wie Glaubwürdigkeit, Relevanz, Vollständigkeit, Interpretierbarkeit, Konsistenz oder Zugänglichkeit der Daten für Consumer ausschlaggebend[4].

Tabelle 1: Dimensionen der Datenqualität mit Ausprägungen nach Wang und Strong (1996).

Vor der Befragung

Jede Onlinebefragung ist trotz Abwesenheit einer interviewenden Person und den damit wegfallenden primären Interviewer-Effekten (deshalb oft als «verzerrungsfrei» angepriesen) immer eine Situation, in der im Extremfall eine parasoziale Interaktion mit einem imaginären Interviewer stattfindet. Oder die mindestens irgendeine Art von kognitivem Stimulus-Response-Prozess bei Befragten auslöst. Dieser gliedert sich als Cognitive Aspects of Survey Methodology (CASM) vereinfacht in vier Schritte[7-10]:

  1. Lesen und Verstehen der Frage
  2. Abrufen relevanter Informationen aus dem Gedächtnis
  3. Beurteilung der abgerufenen Informationen bezüglich Vollständigkeit und Relevanz, kognitive Editierung der präferierten Antwort auf das gewünschte Antwortformat und Angemessenheit
  4. Antwortabgabe

Die kognitive Verarbeitung folgt dabei den Zweiprozessmodellen[11-12] und geschieht elaboriert (intensiv, zentral) oder peripher (oberflächlich, schnell, nebenbei, heuristisch). Eine elaborierte Verarbeitung begünstigen unter anderem die gute Verständlichkeit der Frage, die kognitive Fähigkeit sowie die Motivation der Antwortenden, genügend Zeit und wenig Ablenkung. Eine periphere Verarbeitung öffnet die Tür für Verzerrungseffekte noch weiter.

Zehn Gebote für gute Fragebögen

Bei dieser Verarbeitung sind eine Menge latenter Störeinflüsse (Response Bias[13]) im Spiel, die sich nur schwer kontrollieren lassen. Trotzdem kann im Design von Fragebögen mit zehn Geboten[9], soweit möglich und ökonomisch sinnvoll, vorgesorgt werden, wobei diese weniger als «starre» Regeln, denn als Reflexionsbasis für das Finetuning von Fragebögen dienen:

  1. einfache, unzweideutige Begriffe (werden von allen Befragten sehr ähnlich verstanden)
  2. unklare Begriffe definieren
  3. keine langen/komplexen Fragen
  4. keine hypothetischen Fragen
  5. keine Doppelstimuli/Doppelverneinung
  6. keine Unterstellungen/Suggestivfragen
  7. keine Fragen nach Informationen, die viele Befragte vermutlich nicht kennen
  8. Fragen mit eindeutigem zeitlichen Bezug
  9. Antwortkategorien sind erschöpfend und disjunkt (überschneidungsfrei)
  10. Kontext einer Frage wirkt sich nicht auf deren Beantwortung aus

Zum Beispiel kann eine Frage wie «Wurden in Ihrer Schule bereits Projekte im Rahmen des LP21 umgesetzt?» vielleicht Lehrpersonen gestellt werden, aber nicht Eltern (Gebote 2 und 7). Und «Experten denken, dass CO2-Massnahmen zu langsam umgesetzt werden – halten Sie diese Ansicht für richtig oder für falsch?» verstösst gegen das sechste Gebot. Sogar in wissenschaftlich angesehenen Studien werden Fragen gestellt, die sich in erheblichem Masse der Erinnerbarkeit entziehen (Mobiltelefonnutzung in den letzten 6 Monaten): «detailed questions were asked about the initial pattern of use, including network operator and average number and duration of calls, and any subsequent changes in use patterns. Questions were also asked about the proportion of time the phones were used in urban, suburban or rural settings»[14] (Gebot 3, 7, 8). Entsprechend der Konversationsmaximen nach Grice[15] gilt auch für Formulierungen in Fragebögen:

• Qualität (wahr und nicht suggestiv)
• Quantität (so ausführlich wie nötig, so kurz wie möglich)
• Relevanz (zielgruppengerecht, nur fragen und ansprechen, was zum Thema gehört)
• Modalität (klar, eindeutig, kompakt und geordnet)

Weiter sollten Übertragungseffekte minimiert werden: Steht vor der Frage, «Welche Partei wählen Sie am Wahlsonntag?» eine Frage zu Umweltkatastrophen oder eine zum Wirtschaftswachstum? Ist Fleisch 25% fett oder 75% mager?[16] Übertragungs- und Framing-Effekte sollten mit möglichst objektiven Formulierungen und Kontexten verringert werden.

Skalen sind Korsetts, die passen müssen

Auch Rating-Skalen an sich können Verzerrungen unterstützen, da Antworten von den Befragten «passend» gemacht werden. «Trash-Antworten» können reduziert werden, in dem eine Ausweichkategorie «keine Antwort» angeboten wird. Dadurch gehen leider einige gültige Antworten verloren, die versteckte Datenverschmutzung, wenn wegen Fehlen einer Ausweichkategorie einfach irgendwas angekreuzt wird[17], nimmt jedoch ab. Eine mittlere Ausprägung wie «teils/teils» wird ebenfalls empfohlen[18]. Rating-Skalen mit 5 bis 7 vollverbalisierten Antwortkategorien werden mehrheitlich als ratsam erachtet – zu wenige Kategorien differenzieren ungenügend, zu viele sind inhaltlich schwer zu unterscheiden, fehlende Verbalisierung ist schwerer zu interpretieren[18]. Einige weitere Verzerrungseffekte, denen in Online-Befragungen Beachtung geschenkt werden sollte, sind Akquieszenz (generelle Zustimmungstendenz in Skalen), Non-Attitude (beliebige Antworten bei Desinteresse, Zeitknappheit), soziale Erwünschtheit (Erwartungskonformität), Sponsorship-Effekte (Antworten dem Auftraggeber zuliebe), Situationseffekte (Kontext und Ort des Ausfüllens, Anwesenheit von Bekannten, Helfern), Tendenzen zur Mitte (Meiden von Extremen), Lageeffekte (Primacy/Recency-Effekt: Erste und letzte Antwortvorgaben werden besser erinnert und bevorzugt, weil salienter) oder Ankereffekte (Übertragung, Beeinflussung durch Vorfragen, selektives Antwortuniversum, Priming). Schwarz[19] hat zu Letzterem schon 1999 festgestellt, dass Antwortvorgaben implizite Anker setzen. So antworteten unter Verwendung der linken Skala (vgl. Bild 2) nur 16% der Befragten mit «mehr als 2 ½ Stunden». Mit der rechten Skala hingegen insgesamt 38%, obwohl dieselbe Frage gestellt worden war. Die Extremposition der Antwortvorgabe «mehr als 2 ½ Stunden» in der linken Skala lässt die Teilnehmenden unterreportieren, rechts ist der umgekehrte Effekt der Fall.

Bild 2: Ankereffekt der Antwortvorgaben bei Schwarz (1999)

Die Datenqualität ist auch beeinflusst durch die Frageformate: offene Textfelder versus Skalen versus halboffene Formate, Validierungen direkt im Fragebogen, Regie-Anweisungen, visuelle Darstellung von Skalen, Mobildarstellung, technische Einflüsse wie schwer bedienbare Schieberegler; und ebenso Herausforderungen bestimmter Zielgruppen wie Kinder oder digital unerfahrene Benutzer. Pretesting sowie Regie-Hinweise bezüglich der erwarteten Dateneingaben in punkto Umfang, Art und Format der Eingaben sind im Fragebogen fast immer vorteilhaft.

Einige Probleme der Datenqualität können somit durch intensive Reflexion, Einbinden von Fragebogen-Consultants, ausführliches Pretesting (z. B. auch mit Explorieren oder Split-Half-Setups verschiedener Frageformate) und Überarbeiten von bereits bestehenden Fragebögen durchaus adressiert werden.

Nach der Befragung

Mit einem Prämienvolumen von knapp 6 Mrd. CHF (1) stellt die Motorfahrzeugsparte (MFZ) das grösste Auch im Nachgang können Massnahmen zur Verbesserung der Datenqualität getroffen werden. Diese beziehen sich hauptsächlich auf verzerrende Effekte, die Teilnehmende durch ihr Verhalten im Fragebogen erzeugen.

Während einige dieser Effekte, wie z. B. Ausreisser*, Speeder** oder inkomplette Fragebögen unabhängig vom Befragungsmodus auftreten (z. B. auch in CATI, Face-to-Face), häufen sich gerade bei schriftlichen und Online-Befragungen sogenannte «Response-Sets» (Tendenzen von Teilnehmenden, eine Reihe von Fragen in einem bestimmten Muster zu beantworten)[20]. Bei Online-Befragungen wird dies zusätzlich durch die erhöhte empfundene Anonymität verschärft, da mit steigender Anonymität die Tendenz steigt, Items weniger ernsthaft auszufüllen und falsche oder fiktive Antworten abzugeben[20].

*Datenpunkt, der bedeutend von den restlichen Datenpunkten entfernt liegt.
**Teilnehmende, die den Fragebogen in einer Zeit komplettieren, die bei seriösem Durchlesen der Fragen und Antwortmöglichkeiten nicht plausibel ist.

Klassische Antwortmuster, die in schriftlichen Befragungen mit Rating-Skalen beobachtet werden können, sind: Response-Ranges (Verwendung nur eines bestimmten Bereichs der Skala, unabhängig vom Inhalt der Frage oder der Ausrichtung der Antwortvorgaben), Extreme Checking Style (auch Extreme Response Style[21], ERS, genannt: abwechselndes Anwählen der linken und rechten Extrempunkte einer Skala), Muster-Ankreuzer (Ankreuzen von Mustern wie z. B. Diagonalen oder Pfeilen in Tabellenfragen) und Straightliner (Null-Varianz-Antwortverhalten, d. h. Auswahl eines bestimmten Skalenpunkts, unabhängig von der Skalenbreite, -ausrichtung und Frageformulierung). Gerade Letztere sind bei unmotivierten Teilnehmenden beliebt. Jandura identifiziert in einer offenen Online-Befragung zu Mediennutzungsverhalten von Jugendlichen bei einem Viertel der Befragten ein Null-Varianz-Antwortverhalten in mindestens einer der neun beantworteten Fragen[20]. Allerdings muss hier relativiert werden, dass Straightlining unter gewissen Umständen valide ist, beispielsweise, wenn eine Item-Batterie eine hohe interne Konsistenz aufweist und alle Items in dieselbe Richtung formuliert sind[22]. Um valides Straightlining auszuschliessen, könnte ein Item pro Frageblock vor der Feldphase umgepolt werden.

Um die Qualität der Ergebnisse einer Befragung zu erhöhen, sollten Fälle mit den beschriebenen Effekten untersucht und allenfalls aus der Analyse exkludiert werden. Während dies bei einigen Effekten relativ einfach möglich ist (z. B. können Speeder anhand der Bearbeitungszeit und inkomplette Fragebögen anhand der fehlenden Antworten schnell identifiziert werden), ist für andere Effekte ein genaueres Hinsehen notwendig (siehe Tabelle 2). Der Prozess kann dabei digital mit multifaktoriellen, statistischen Prozeduren unterstützt werden. Die Entscheidung, ob ein spezifischer Fall nun als Quality Fail ausgeschlossen werden soll oder nicht, sollte jedoch durch geschulte Mitarbeitende nach der Sichtung des entsprechenden Fragebogens und nicht auf Basis einzelner Kriterien erfolgen.

Tabelle 2: Erkennen von verzerrenden Effekten im Datensatz, angelehnt an Jandura (2018) und Reuning und Plutzer (2020).

Fazit

In einem kurzen Artikel kann das Thema Datenqualität lediglich anhand ausgewählter Aspekte angeschnitten werden. Zusammenfassend ergeben sich drei essenzielle Punkte:

  1. Eine Ausrichtung der Datenqualität auf Abnehmergrupp
  2. Wesentliche Weichen für die Datenqualität werden schon vor der Feldphase gestellt.
  3. Eine Datenqualitätsanalyse und Datenbereinigung nach der Feldphase ist technisch möglich und nützlich.

Dies sind wichtige Erkenntnisse für validere Analysen, für die Kundenkommunikation, den Projektaufbau und das Branchen-Image.

Datenqualität geht zudem einher mit Themen wie Erhebungs- und Verwendungsethik, Zweckbestimmung von Daten, Panelpflege, Datenschutz und mit der Idee, auch komplexe Prozesse der Auswertungslogik, Algorithmen und Deep-Learning-Modelle so transparent wie möglich zu machen. Ein positives Wechselverhältnis von Datengebenden und -nehmenden widerspiegelt sich in einem emanzipierten und daher lohnenswerten Verständnis von Datenqualität für alle.

Literaturverzeichnis weiter unten

For English Version download pdf

Raffael Meier

Mitgründer und CTO von onlineumfragen.com und Pionier der Onlinebefragungstechnologie.

raffael.meier@onlineumfragen.com
+41 44 500 5137

Nina Gwerder

Consultant bei onlineumfragen.com

nina.gwerder@onlineumfragen.com
+41 44 500 5140

Die Autoren
Raffael Meier, MA, MSc – Mitgründer und CTO von onlineumfragen.com und Pionier der Onlinebefragungstechnologie. Er befasst sich mit gesellschaftlichen und methodologischen Aspekten von Daten und berät Kundinnen und Kunden mit dem Ziel «Empowerment».

Nina Gwerder, MA – ist Consultant bei onlineumfragen.com und spezialisiert auf die Beratung namhafter nationaler und internationaler Unternehmen rund um das Thema Online-Befragungen und deren effektiver Auswertung.

Download Artikel
Swiss Insights News #11

Institute Member von
SWISS INSIGHTS

onlineumfragen.com

Alle SWISS INSIGHTS News finden Sie hier: SWISS INSIGHTS NEWS

Literaturverzeichnis
[1] Fisher, C. W., & Kingma, B. R. (2001). «Criticality of data quality as exemplified in two disasters », Information & Management, 39(2), 109–116. https://doi.org/10.1016/S0378-7206(01)00083-0
[2] Wrong house gets torn down based on a Google Maps error. Engadget. (n.d.). Abgerufen am 17. August 2022, von https://www.engadget.com/2016-03-24-texas-wrong-house-torn-down-google-maps.html
[3] Keller, S., Korkmaz, G., Orr, M., Schroeder, A. und Shipp, S. (2017). «The Evolution of Data Quality: Understanding the Transdisciplinary Origins of Data Quality Concepts and Approaches», Annual Review of Statistics and Its Application, 4(1), S.85-108.
[4] Schmidt, C. O., Struckmann, S., Enzenbach, C., Reineke, A., Stausberg, J., Damerow, S., Huebner, M., Schmidt, B., Sauerbrei, W., & Richter, A. (2021). «Facilitating harmonized data quality assessments. A data quality framework for observational health research data collections with software implementations in R», BMC Medical Research Methodology, 21(1). https://doi.org/10.1186/S12874-021-01252-7
[5] Haug, A. (2021). «Understanding the differences across data quality classifications: a literature review and guidelines for future research», Industrial Management and Data Systems, 121(12), 2651–2671. https://doi.org/10.1108/IMDS-12-2020-0756
[6] Wang, R.Y. und Strong, D.M. (1996). «Beyond Accuracy: What Data Quality Means to Data Consumers», Journal of Management Information Systems, 12(4), S.5-33.
[7] Cannell, C. F., Miller, P. v., & Oksenberg, L. (1981). «Research on interviewing techniques», in S. Leinhardt (Ed.), Social Methodology. Jossey-Bass Publishers.
[8] Tourangeau, R., Rips, L. J., & Rasinski, K. (2000). The Psychology of Survey Response. Cambridge: Cambridge University Press. https://doi.org/10.1017/CBO9780511819322
[9] Porst, R. (2014). Fragebogen. Wiesbaden: Springer Fachmedien. https://doi.org/10.1007/978-3-658-02118-4
[10] Tourangeau, R. (2018). «The survey response process from a cognitive viewpoint», Quality Assurance in Education, 26(2), 169–181. https://doi.org/10.1108/QAE-06-2017-0034
[11] Petty, R. E., & Cacioppo, J. T. (1986). «The elaboration likelihood model of persuasion», Advances in Experimental Social Psychology, 19(C), 123–205. https://doi.org/10.1016/S0065-2601(08)60214-2
[12] Dual-process theories in social psychology. PsycNET. (n.d.). Abgerufen am 17. August 2022, von https://psycnet.apa.org/record/1999-02377-000
[13] Bogner, Kathrin und Landrock, Uta (2015). Antworttendenzen in standardisierten Umfragen. Mannheim, GESIS Leibniz Institut für Sozialwissenschaften (GESIS Survey Guidelines). https://doi.org/10.15465/gesis-sg_016
[14] Cardis, E., Richardson, L., Deltour, I. et al. (2007). «The INTERPHONE study: design, epidemiological methods, and description of the study population», Eur J Epidemiol, 22, 647–664. https://doi.org/10.1007/s10654-007-9152-z
[15] Grice, H. P. (1975). «Logic and Conversation», in P. Cole, & J. L. Morgan. (Eds.), Syntax and Semantics, Vol. 3, Speech Acts (pp. 41-58). New York: Academic Press.
[16] Levin, I. P., & Gaeth, G. J. (1988). «How Consumers are Affected by the Framing of Attribute Information Before and After Consuming the Product», Journal of Consumer Research,
[15] (3), 374. https://doi.org/10.1086/209174
[17] Berekoven, L., Eckert, W., & Ellenrieder, P. (2004). Marktforschung. Wiesbaden: Gabler Verlag. https://doi.org/10.1007/978-3-663-05734-5
[18] Menold, N., & Bogner, K. (2015). «Gestaltung von Ratingskalen in Fragebögen (Version 1.1)», GESIS Survey Guidelines, 13. https://doi.org/10.15465/GESIS-SG_015
[19] Schwarz, N. (1999). «Self-reports: How the questions shape the answers», American Psychologist, 54(2), 93–105. https://doi.org/10.1037/0003-066X.54.2.93
[20] Jandura, O. (2018). «Fake Data? Zur Trennung von sauberen und verschmutzten Daten bei selbst-administrierten Befragungsmodi», in Rössler P. & Rossman, C. (Hrsg.), Kumulierte Evidenzen. Wiesbaden: Springer VS, S. 207-223.
[21] Greenleaf, E. A. (1992). «Measuring Extreme Response Style», The Public Opinion Quarterly, 56(3), 328–351. http://www.jstor.org/stable/2749156
[22] Reunig, K. und Plutzer E. (2020). «Valid vs. Invalid Straightlining: The Complex Relationship Between Straightlining and Data Quality», Survey Research Methods, 14(5), S.439-459.

Literaturverzeichnis

Preise optimieren mit Behavioral Pricing – aber wie konkret?

Im Folgenden möchten wir Antworten auf diese Fragen geben und schicken gleich voraus, dass es wie so oft, nicht den einen Ansatz gibt, der zu verfolgen ist, sondern dass verschiedene Wege zum Ziel führen. Daher teilen wir zunächst ein paar grundlegende Erkenntnisse, die übergreifende Gültigkeit haben, bevor wir anhand eines konkreten Beispiels aus der Praxis auf spezifische Fragen, Methoden und Auswertungsansätze eingehen.

Erfolgsfaktoren der Preisforschung

Behavioral Pricing basiert auf valider Preisforschung als Grundlage für geplante Preisoptimierungen. Aus unserer Erfahrung sind hierbei drei Faktoren relevant für den Erfolg:

  1. Das richtige Kundenmodell
  2. Die Untersuchung von allen relevanten Entscheidungsdimensionen
  3. Wahl der optimalen Methode

1. Das richtige Kundenmodell

Preisforschung ist Entscheidungsprozessforschung. Möchten Sie das Entscheidungsverhalten Ihrer Kunden verstehen, prognostizieren und gestalten? Dann müssen Sie das richtige Kundenmodell wählen. Dieses ist von zentraler Bedeutung, um sicherzustellen, dass das Entscheidungsverhalten, welches die Kunden in der Marktforschung zeigen, möglichst ihrem Entscheidungsverhalten in der Realität entspricht.

Die Erkenntnisse der Verhaltensökonomie zeigen nachdrücklich auf, dass Menschen vorhersagbar irrational entscheiden. Dies heisst, dass sie nicht wie der klassische Homo Oeconomicus agieren, sondern sich von Daumenregeln (Heuristiken) leiten lassen. Thaler und Sunstein nutzen hierfür das Bild des Mr. Spock von Raumschiff Enterprise, der rational und stabil wie ein Computer entscheidet – im Gegensatz zum in der Realität zumeist anzutreffenden Homer Simpson, der eher irrational und mit wechselnden Präferenzen unterwegs ist.

Sie fragen sich nun vermutlich: Warum ist das Kundenmodell so wichtig für valide Preisforschung? Ausschlaggebend ist doch vielmehr, die richtigen Fragen zu stellen und das richtige Testmaterial zu präsentieren. Unserer Erfahrung nach wird Ihnen dies jedoch nur gelingen, wenn Sie das richtige Kundenmodell anwenden. Zur Untermauerung dieser Aussage zeigen wir im Folgenden eine Reihe von verhaltensökonomischen Erkenntnissen und die zugehörigen Implikationen für die Preisforschung auf:

Abbildung 1: Verhaltensökonomische Erkenntnisse und Implikationen für Preisforschung

2. Die Untersuchung von allen relevanten Entscheidungsdimensionen

Um sowohl Input für die Ausgestaltung und Kommunikation konkreter Leistungsangebote zu generieren, als auch Erkenntnisse zum Pricing zu gewinnen, hat es sich bewährt, alle relevanten Dimensionen des Entscheidungsprofils der Kunden zu erheben. Die hieraus gewonnenen Erkenntnisse helfen auch wesentlich bei der Interpretation der noch zu diskutierenden Preisakzeptanz.

Im Einzelnen geht es um drei Dimensionen, die das Entscheidungsprofil der Kunden ausmachen:

Abbildung 2: Dimensionen Entscheidungsprofil

3. Wahl der optimalen Methode

Wie bereits erwähnt, sollte das Entscheidungsverhalten der Kunden in der Marktforschung möglichst ihrem Entscheidungsverhalten in der Realität entsprechen.

Da die Auswahl der passenden Methode nicht generisch beantwortet werden kann, möchten wir an dieser Stelle die grundsätzliche Ebene verlassen und auf ein konkretes Projektbeispiel zu sprechen kommen. Wir gehen jedoch davon aus, dass einzelne Erkenntnisse auch auf andere Branchen bzw. Produkte übertragen werden können.

Fallstudie: Preisoptimierung von Motorfahrzeugtarifen

Mit einem Prämienvolumen von knapp 6 Mrd. CHF (1) stellt die Motorfahrzeugsparte (MFZ) das grösste Segment in der Sachversicherung dar. Preisoptimierungen lohnen sich daher allein schon wegen des Anteils der Sparte am Prämienvolumen eines jeden Sachversicherers. Es gibt jedoch noch weitere Gründe, warum sie für Behavioral Pricing Ansätze ein lohnendes Anwendungsgebiet darstellt:

(1) Gebuchte Haftpflicht- plus Kaskoprämien in 2020 (Quelle: FINMA «Bericht über den Versicherungsmarkt 2020»

  1. Das intangible, auf die Zukunft gerichtete Leistungsversprechen von Versicherungen erschwert Kunden die Entscheidungsfindung. Um zu vermeiden, dass sie sich zu schnell auf den Preis fokussieren, lohnt es sich, das Entscheidungsverhalten differenzierter zu untersuchen, um Ansatzpunkte für Differenzierungen jenseits des Preises zu identifizieren (siehe Ausführungen oben zur Motivation).
  2. Die MFZ-Sparte ist weitgehend ausgereift und kann sich kaum über Innovationen bei ihren Kunden positionieren. Innovationen sind vor allem in Bezug auf Themenfelder wie E-Mobilität und autonomes Fahren zu erwarten. Je reifer jedoch eine Branche, desto grösser ist das Risiko von Preiskämpfen, die aus der Branche heraus in Ermangelung anderer, naheliegender Alternativen initiiert werden.
  3. Bei Vertriebsmitarbeitern herrscht häufig die Wahrnehmung vor, die Mehrheit der Kunden sei sehr preissensitiv. Dies steigert das Risiko, dass der Preis zu stark in den Mittelpunkt des Vertriebsansatzes rückt. Verstärkt wird dieses Risiko durch das Bestreben, Motorfahrzeugversicherungen möglichst effizient zu vertreiben, um das Verhältnis zwischen Zeiteinsatz und zu erhaltender Provision zu optimieren.

Diese Ausgangslage war uns bewusst, als wir die Anfrage zur Optimierung eines MFZ-Tarifs erhielten. Umso wichtiger war es uns, die Befragten einerseits mit einer möglichst realistischen Entscheidungssituation zu konfrontieren, andererseits den Rahmenfragebogen ausreichend ausführlich zu gestalten, um das Entscheidungsverhalten der Befragten möglichst umfassend zu erheben.

Die Schaffung einer möglichst realistischen Ausgangssituation bedeutet in diesem Fall, die Berechnung realitätsnaher Prämien auf Basis ausgewählter, tarifierungsrelevanter Merkmale. Selbst wenn man sich auf die zentralen Kriterien wie u. a. Fahrzeugalter, Neuwagenpreis, Alter/Geschlecht/Nationalität des Fahrers fokussiert, ergibt sich aufgrund der Vielzahl an Ausprägungen je Merkmal und Kombinationsmöglichkeiten sehr rasch ein komplexes Modell. Auf Basis des Inputs des Kunden haben wir daher ausserhalb unserer üblichen Befragungssoftware ein separates Tarifierungstool programmiert, welches uns ermöglichte, die Befragten mit realistischen Preisen zu konfrontieren.

Die folgende Abbildung 3 gibt einen Eindruck vom Tarifierungstool, wie es den Kunden in der Befragung präsentiert wurde.

Abbildung 3: Überblick Tarifierungstool

Um den Entscheidungsprozess der Kunden möglichst differenziert zu untersuchen, vollzogen wir den eigentlichen Preistest in mehreren Schritten, wie in der folgenden Abbildung 4 dargestellt.

Abbildung 4: Ablauf Preistest

Auf Basis der Befragungsergebnisse konnten Empfehlungen zu den folgenden Themenfeldern abgegeben werden:

Anzahl der empfohlenen Produktlinien

  1. Die Verteilung der Wahlanteile in einem realistischen Umfeld belegt den Bedarf an zwei Produktlinien für einen bedürfnisorientierten Vertriebsansatz.

Defaults

  1. Vor dem Hintergrund eines häufig geringen Produktwissens bieten sich sinnvolle Defaults an, um sowohl dem Kunden als auch dem Vertrieb die Entscheidung zu erleichtern.
  2. Die geringen Zu- oder Abwahlraten haben grundsätzlich die geplante Tarifzusammenstellung belegt.
  3. Aufgrund der vermehrten Zuwahl einzelner Leistungen und Produktlinien waren weitere Optimierungen bei der Zusammenstellung der Tarife möglich.
  4. Aufgrund des Vergleichs von ungestützt erhobener Preisakzeptanz und faktischem Produktwert gemäss Tariftool empfahlen wir einen Baustein nicht in den Default zu integrieren.

Pricing Zusatzbausteine

  1. Anhand der aktiven Zu- bzw. Abwahlraten bei den Zusatzbausteinen konnten je Baustein konkrete Preisempfehlungen ausgesprochen werden.
  2. Auf diese Weise konnte die Preisakzeptanz der Kunden – jenseits der aktuell angesetzten, technischen Preise – deutlich besser abgeschöpft werden.
  3. Die Steigerungen variierten zwischen 10% und 40% auf Ebene einzelner Bausteine.

Strategische Empfehlungen

  1. Anhand der Ergebnisse aus dem Rahmenfragebogen sowie der qualitativen Vorstudie konnten weitere, grundlegende strategische Empfehlungen für einen erfolgreichen Vertriebsansatz abgeleitet werden.
  2. Hierzu gehörte z. B. die Positionierung des Angebots über Use Cases, die den Kunden mit seinen Bedürfnissen direkter ansprechen als dies bisher bei den teilweise eher technisch dargestellten Leistungen der Fall ist.
  3. Insgesamt sollte die Positionierung des Angebots verstärkt über Leistungsaspekte erfolgen, um das Thema Preis in den richtigen Kontext zu setzen.

Fazit

Preisoptimierungen mit Behavioral Economics bauen im Kern darauf auf, dass die Kunden in der Befragung möglichst dieselben Entscheidungsregeln anwenden wie in der Realität. Dies ist eine zentrale Voraussetzung für valide Ergebnisse bei einem so sensiblen Thema wie der Ableitung von Preisempfehlungen. In Bezug auf Motorfahrzeugversicherungen erfordert dies die Modellierung realistischer Prämien als Basis für die Erhebung realitätsnaher Wahlentscheidungen. Je nach Erkenntnisinteresse können unterschiedliche Produkt- und Preismonaden zur Ableitung von Optimierungsempfehlungen getestet werden. Gerade in reifen, wettbewerbsintensiven Märkten lassen sich mit diesem Ansatz noch Spielräume zur Abschöpfung der Preisakzeptanz auf Kundenseite konkretisieren.

Dr. Patricia Lüer

Director intervista

patricia.lueer@intervista.ch
+41 31 511 39 30

Die Autorin
Dr. Patricia Lüer ist Director bei intervista. Sie hat mehr als 25 Jahre Beratungs- und Marktforschungserfahrung in verschiedensten Branchen, B2B wie B2C. Ihr Fokus liegt auf der Analyse und Gestaltung komplexer Entscheidungsprozesse auf Grundlage verhaltensökonomischer Erkenntnisse.

Download Artikel
Swiss Insights News #10

Institute Member von
SWISS INSIGHTS

www.intervista.ch

Alle SWISS INSIGHTS News finden Sie hier: SWISS INSIGHTS NEWS

Datensicherheit: Herausforderungen und gesetzliche Pflichten

Sich häufende Cyberattacken haben das Thema der Datensicherheit in den Fokus gerückt. Gleichzeitig handelt es sich bei der Datensicherheit um eine Vorgabe, die das Datenschutzgesetz an die Unternehmen stellt.

Die Datensicherheit ist Bestandteil des Datenschutzrechts und damit auch des Datenschutzgesetzes. Im aktuell noch geltenden Datenschutzgesetz (DSG) ist die Datensicherheit in Art. 7 DSG geregelt. Danach müssen Personendaten durch angemessene technische und organisatorische Massnahmen gegen unbefugtes Bearbeiten geschützt werden. Per September 2023 wird das revidierte Datenschutzgesetz (revDSG) in der Schweiz in Kraft treten.

Die dann massgebliche Vorschrift zur Datensicherheit ist Art. 8 revDSG. Die Vorschrift formuliert in Absatz 1 die Anforderungen an die Datensicherheit wie folgt: «Der Verantwortliche und der Auftragsbearbeiter gewährleisten durch geeignete technische und organisatorische Massnahmen eine dem Risiko angemessene Datensicherheit.». Abs. 2 hält fest, dass die Massnahmen es ermöglichen müssen, Verletzungen der Datensicherheit zu vermeiden. Darüber hinaus bestimmt Abs. 3, dass der Bundesrat Bestimmungen über die Mindestanforderungen an die Datensicherheit erlässt.

Dies erfolgt konkret mittels der Verordnung zum Datenschutzgesetz (VDSG). Die Revision des DSG erfordert eine Anpassung der VDSG. Davon sind auch die Regelungen über die Mindestanforderungen an die Datensicherheit betroffen. Die VDSG befindet sich daher aktuell in der Revision, es ist bisher ein Entwurf (E-VDSG) veröffentlicht und in die (nunmehr bereits abgeschlossene) Vernehmlassung geschickt worden.

Im Rahmen der Vernehmlassung äusserten Anwender wie Verbände, Kanzleien und Unternehmen erhebliche Kritik am E-VDSG. Insbesondere kritisierten sie, dass der bisherige Entwurf zu detaillierte und zu umfangreiche Vorgaben für Unternehmen, insbesondere für KMU, enthalte. Im Hinblick auf hier noch zu erwartende Ergänzungen und/oder Anpassungen durch den Gesetzgeber bleibt abzuwarten, welches Anforderungsniveau und welche konkreten Massnahmen zur Datensicherheit die revidierte VDSG (revVDSG) an Unternehmen stellt. Die aktuelle Entwicklung hierzu sollten die Fachverantwortlichen im Unternehmen genau beobachten.

Vorgaben an die Datensicherheit nach dem aktuellen DSG

Zentrale Vorgabe der gesetzlichen Regelung ist es, Personendaten gegen die unbefugte Bearbeitung zu schützen. Dabei hat der Schutz der Daten vor den Risiken einer unbefugten Bearbeitung durch angemessene organisatorische und technische Massnahmen zu erfolgen. Üblicherweise erfolgt eine Analyse potentieller Risiken und erforderlicher Massnahmen im Rahmen eines Datensicherheitskonzepts. Dieses ermöglicht eine gesamtheitliche Bewertung und Einordnung der ergriffenen Massnahmen. In der VDSG sind verschiedene technische und organisatorische Massnahmen umschrieben. Zu beachten sind insbesondere die Art. 8 bis 11 VDSG sowie die Art. 20 und 21 VDSG (für Bundesorgane).

Bereits erkennbare Vorgaben aus der Botschaft zum revDSG

In den Gesetzgebungsmaterialien zum revDSG sind grundsätzliche Überlegungen zu den Anforderungen an die Datensicherheit enthalten. Die Vorschrift des Art. 8 revDSG geht von einem risikobasierten Ansatz aus. Die Botschaft (Botschaft Totalrevision Datenschutzgesetz BBl 2017 7031) formuliert hierzu «Je grösser das Risiko einer Verletzung der Datensicherheit, umso höher sind die Anforderungen an die zu treffenden Massnahmen.» Darüber hält die Botschaft fest, dass sowohl Verantwortliche als auch Auftragsbearbeiter dazu verpflichtet sind, «für ihre Systeme eine geeignete Sicherheitsarchitektur vorzusehen und sie z. B. gegen Schadsoftware oder Datenverlust zu schützen».

Bereits jetzt empfohlene, ausgewählte Massnahmen zur Daten- und Cybersicherheit

Bereits jetzt empfehlen sich verschiedene Massnahmen zur Datensicherheit. Dabei kommen sowohl technische als auch organisatorische Massnahmen in Betracht, welche das Risiko eines erfolgreichen Cyberangriffs mindern. Nachfolgend werden einzelne, ausgewählte Massnahmen vorgeschlagen. Es ist zu beachten, dass es sich dabei nicht um eine abschliessende oder vollumfängliche Aufzählung aller potentiellen oder relevanten Massnahmen handelt.

Schulung und Sensibilisierung von Mitarbeitenden

Eine wesentliche organisatorische Massnahme stellt die hinreichende Schulung und Sensibilisierung der Mitarbeitenden dar. Der menschliche Faktor ist in einer Sicherheitsarchitektur häufig eine Schwachstelle. Der unzureichende Schutz von Zugangscodes, Passwörtern, Zugangsberechtigungen, usw. stellt ein potentielles Einfallstor für unbefugte Zugriffe dar. Entsprechende Schulung der Mitarbeitenden kann ein erhebliches Mass an Awareness für Risikosituationen und das richtige Verhalten schaffen.

Zugriffsberechtigungen

Wenn unternehmensintern über alle Stufen und Abteilungen hinweg weitgehende Zugriffsrechte auf sämtliche Informationen und Daten bestehen, wird dies häufig mit flachen Hierarchien und schnellen Entscheidungswegen gerechtfertigt. Unter dem Aspekt der Datensicherheit müssen indessen tatsächlich nur sehr wenige Mitarbeitende derart weitreichende Zugriffsrechte haben. Um Daten auch intern vor nicht erforderlichen Zugriffen und damit potentiellen Risiken zu schützen, wird empfohlen nur diejenigen Zugriffsrechte zu gewähren, die der Mitarbeitende für seine Tätigkeit auch tatsächlich benötigt. Zur Vermeidung der (unbeabsichtigten) Installation von Schadsoftware ist in diesem Zusammenhang überdies zu empfehlen, dass die Berechtigung zur Installation von Software nur sehr eingeschränkt vergeben wird und stattdessen den Mitarbeitenden ein verstärkter IT-Support zur Verfügung steht.

Aktualität der eingesetzten IT-Anwendungen

Schadsoftware nutzt häufig Lücken in veralteten Softwareanwendungen aus. Daher wird empfohlen die Betriebssysteme stets mit den aktuellen Updates/Sicherheitsupdates auf den neusten Stand zu bringen. Zugleich sind auch Browser und sonstige Softwareanwendungen im Hinblick auf die Aktualität ihrer Updates zu prüfen. Zudem sollten alle im Einsatz befindlichen Geräte, also nicht nur Laptops, sondern auch Mobiltelefone, Drucker, Tablets, usw. daraufhin kontrolliert werden, ob ihre Betriebssysteme und Sicherheitsupdates auf dem neusten Stand sind. Auch wenn Mitarbeitende eigene Geräte nutzen (BYOD), ist auf die Aktualität der Schutzmassnahmen zu achten. Schliesslich gilt es entsprechende Schutzsoftware (sog. Virenschutz) vorzuhalten und Firewalls zum Schutz des eigenen Systems zu aktivieren.

Verschlüsselung

Bei der Bearbeitung von wichtigen und/oder sensiblen Daten ist stets darauf zu achten, dass diese nur verschlüsselt gespeichert, übermittelt oder transportiert werden.

Vertragsmanagement

Im Zusammenhang mit der Bearbeitung und Auslagerung von Datenbearbeitungsvorgängen, beispielsweise indem Cloud-Dienstleister, (Online-)CRMs, Analyse-Tools usw., zum Einsatz kommen, ist stets die Frage nach der Wahrung der Sicherheit für die betroffenen Datensätze zu beachten. Hier kommen insbesondere vertragsrechtliche Regelungen mit der anderen Partei in Betracht. Diese regeln die einzuhaltenden Standards, beinhalten klare Vorgehensweisen bei Verstössen gegen die Datensicherheit, bestimmen Meldepflichten an den Vertragspartner und benennen Haftungsregeln, Verantwortungssphären usw. Darüber hinaus können Unternehmen vom Vertragspartner auch verlangen, dass er ein Sicherheitskonzept vorlegt. Wie die Einhaltung der vereinbarten Sicherheitsstandards kontrolliert wird oder werden kann, ist üblicherweise Teil des Vertrags zwischen dem Unternehmen und dem Partner, welcher Daten extern bearbeitet.

Weitere zusätzliche Regelungsinhalte werden dann erforderlich, wenn es sich um einen ausländischen Vertragspartner handelt. Hat dieser seinen Sitz darüber hinaus in einem Land, das kein gleichwertiges Datenschutzniveau bietet (vgl. hierzu die Länderliste des EDÖB), werden weitere vertragliche (u. a. Verwendung von Standardvertragsklauseln) und prozessuale (DTIAs = Data Transfer Impact Assessments; Risikoabschätzung hinsichtlich der geplanten Datentransfers) Massnahmen erforderlich, um die Datensicherheit hinreichend zu gewährleisten. Dies ist insbesondere im Fall von Datentransfer in die USA, bspw. bei Nutzung von US-Cloud-Dienstleistungen, Online-CRMs, usw., erforderlich.

Empfehlung

Die Datensicherheit ist eine zentrale datenschutzrechtliche Vorgabe, die im DSG wie auch dem revDSG festgehalten ist. Zur Umsetzung der Datensicherheit im Unternehmen empfiehlt es sich ein Sicherheitskonzept zu erstellen, das den rechtlichen Anforderungen entspricht und diese technisch umsetzt. Darüber hinaus kommt der vertraglichen Ausgestaltung zur Datensicherheit bei Datentransfers eine besondere Bedeutung zu. Hinsichtlich der neuen und konkretisierten Anforderungen an die Datensicherheit durch die revVDSG bleibt der Umfang der umzusetzenden Massnahmen abzuwarten. Diese Massnahmen lassen sich je nach Ausmass der Anforderungen indessen in ein bestehendes Sicherheitskonzept integrieren, so dass sich dessen Erstellung schon jetzt anbietet.

Marcel Griesinger

Rechtsanwaltskanzlei Griesinger, Marcel Griesinger

marcel.griesinger@kanzlei-griesinger.ch
+41 79 871 52 56

Der Autor
Marcel Griesinger, Rechtsanwalt, Inhaber Rechtsanwaltskanzlei Griesinger, die auf Business Law und Corporate Privacy Law spezialisiert ist, Hochschuldozent Wirtschafts- und Datenschutzrecht

Download Artikel
Swiss Insights News #09

Alle SWISS INSIGHTS News finden Sie hier: SWISS INSIGHTS NEWS

What’s a customer worth? Improving customer lifetime value prediction

Customer lifetime value (CLV) is a key metric for every customer-centric marketer. Predicting the future value of a customer more accurately and reliably, would help to increase the marketing efficiency. Thus, its importance is widely acknowledged in industry and academia. But surveys show that CLV measurement is often a challenge in business practice. Retailers or other non-contractual businesses often fail to accurately predict customer purchase behavior. In particular, in the medium and long term.

Two reasons are key for this: (1) In non-contractual settings, customers do not formally announce when they will stop purchasing from a business. This contrasts contractual business settings such as insurance firms and poses a great challenge for modeling the future purchase behavior of customers. (2) Further, many businesses are subject to seasonal patterns. They experience for example a summer dip as many regular customers are on holidays or they observe significant increases related to special shopping events like Black Friday or Christmas.

The novel approach accounts for all these challenges and provides accurate and reliable estimates of the future value for each individual customer. Recent benchmarks also show that this probability-based approach not only provides better and more reliable prediction accuracy than machine learning approaches but is also faster to compute and does not require specialized computing infrastructure. By providing an accompanying open-source software, it is readily applicable for any business.

The novelty of the proposed approach is to include previously neglected, but from a practical point of view crucial, context variables in the statistical modeling. For the first time, it is possible to consider the effects of customer characteristics such as income and place of residence as well as dynamic effects such as shopping events. Although this seems logical and perhaps even overdue from a content point of view, the challenge lay in the statistical complexity that such an undertaking entails.

To guarantee reliability of the results across a wide variety of scenarios in corporate practice, this study considered data from three different industries. In addition, several alternative statistical models were calculated as benchmarks, this included widely used „rules of thumb“, established traditional statistical models and latest machine learning approaches. Furthermore, short-, medium-, and long-term forecast periods were considered to account for the widely varying planning horizons in practice. The added value of the proposed novel approach could thus be demonstrated over a broad database. The exemplary performance is shown in Figure 1.

Figure 1: Comparison of the aggregated performance of the extended Pareto/NBD Model with other approaches

How to use this novel approach as a data analyst

To make the application of this novel approach as easy as possible in practice, an open-source software called „CLVTools“ was developed (www.clvtools.com). CLVTools is a software package for the statistical programming environment R. Beyond the latest work presented here, CVLTools also includes implementations of further complementary and alternative modeling techniques to predict CLV. To date, this software has been downloaded more than 30,000 times.

In its simplest form, without considering any contextual factors, the estimation of CLV only requires a minimal amount of data. At its core, three input variables of customers purchase history are required. This data is available for any firm: a customer identifier (Id), the purchase date, and the purchase amount. Exemplary input data is shown in Table 1.

Table 1: Exemplary input data for the probabilistic modelling

Using the CLVTools package in R only three steps are required to predict customer lifetime value in simplest application case:
• Step 1: Import the historical customer purchase data.
• Step 2: Estimate the model parameters.
• Step 3: Predict the customer purchase behavior.
Figure 2 summarizes the workflow and avai-lable options of CLVTools.

Figure 2: Workflow for CLVTools

Multiple options to check and plot the data along this workflow are provided. Moreover, advanced model features and alternative model options are available. See https://www.clvtools.com/articles/CLVTools.html for a detailed walkthrough.

Marketing practice thus has a new, freely available tool at its disposal to better coordinate customer-centric marketing activities. Customer value as a central marketing metric is used in a variety of ways, e.g., to individualize coupons, to determine the most effective marketing channels or to allocate resources for win-back campaigns. An accurate calculation of the customer value based on our proposed approach helps to significantly improve the customer-specific personalization and thus the marketing efficiency.

Research Team

Patrick Bachmann (ETH Zurich)
Markus Meierer (University of Geneva)
Jeffrey Näf (ETH Zurich)
Patrik Schilter (Crealytics GmbH)

Patrick Bachmann

Post Doctoral Researcher
ETH Zurich

Markus Meierer

Assistant Professor of Marketing
Analytics
University of Geneva

markus.meierer@unige.ch

Download Artikel
Swiss Insights News #08

Alle SWISS INSIGHTS News finden Sie hier: SWISS INSIGHTS NEWS

Data Science küsst Marktforschung voller Energie

Für eine professionelle und aktive Marktbearbeitung im Privatkundenbereich sind auch Energieversorgungsunternehmen (EVU) auf Geo- und Konsumdaten angewiesen. In aller Regel verfügen Energieversorger über entsprechende Informationen aber höchstens für ihr eigenes Versorgungsgebiet, bzw. für einen Teil ihrer privaten Stromkunden. Aus diesem Grund haben das Schweizer Marktforschungsinstitut LINK und die Data-Science-Spezialisten von Novalytica gemeinsam den EVU Marktatlas B2C konzipiert und 2022 erstmals umgesetzt. Das Studienkonzept basiert auf Expertengesprächen und Fachinputs aus der Branche, berücksichtigt Befragungs- und öffentlich zugängliche Sekundärdaten und bietet auf dieser Grundlage mikrogeografische Analysemöglichkeiten.

Methodischer Ansatz

Die Studie basiert auf der Hochrechnung einer umfangreichen Primärdatenerhebung auf die gesamte Schweiz. LINK führte im vierten Quartal 2021 eine Befragung von mehr als 10’000 Privatkunden im Alter zwischen 18 und 79 Jahren in der Schweiz durch, die auf Basis von Region, Alter und Geschlecht quotiert wurde und deren Stichprobe damit an der Bevölkerungsverteilung gemäss Bundesamt für Statistik ausgerichtet ist. Das Beantworten des Fragebogens dauerte ca. 10 Minuten und beinhaltete diverse Themen rund um die Einstellung gegenüber Energiethemen, der Marken- und Kundenwahrnehmung von Energieversorgern und dem Potenzial von Energieprodukten. Novalytica kombinierte alsdann eine Vielzahl öffentlich verfügbarer Geodaten.

Neben Daten des Bundesamtes für Statistik, des Gebäuderegisters, des Handelsregisters oder kantonaler Geoportale umfasste diese Recherche auch online verfügbare Quellen wie Immobilieninserate. Neben Datenpunkten zur Wohnsituation (u. a. Gebäudetyp, Baujahr, Renovationen, Preis-/Mietniveau, Grösse), welche bei Fragen rund um Energie zentral sind und gleichzeitig einiges über die Haushalte preisgeben, sind auch Datenpunkte zur Soziodemographie (u. a. Alter, Haushaltsgrösse, Anteil Nicht-Schweizer) auf Ebene Hektar vorhanden. Die aus diesen Quellen kombinierten Daten werden aufbereitet und können so jeder Strasse und Adresse aus den Befragungsdaten zugeordnet werden.

Die Ergebnisse der Privatkundenbefragung wurden anschliessend mit den Geodaten verbunden. Mittels der Machine-Learning-basierten Modellierung Gradient Boosting werden die Survey-Antworten auf Gemeinde- und Hektarebene hochgerechnet. Das Modell ermittelt Zusammenhänge zwischen den einzelnen Variablen und erstellt basierend darauf eine Schätzung. Korreliert beispielsweise die durchschnittliche Haushaltsgrösse oder der Anteil Einfamilienhäuser mit der Wechselwahrscheinlichkeit, wird dies vom Modell berücksichtigt. Zur Illustration des Vorgehens zeigt Abbildung 1 beispielhaft das Resultat eines Modells für die Schätzung der Wechselbereitschaft privater Stromkunden aggregiert auf Gemeindeebene.

Abbildung 1: Modellierte Wechselaffinität auf Ebene Gemeinde

Qualitätsaspekte bei öffentlich zugänglichen Daten und der Modellierung

Ein wesentlicher Teil der genutzten Sekundärdaten stammt von offiziellen Quellen wie dem BfS, was eine hohe Datenqualität sicherstellt. Allerdings haben diese oft einen Time Lag: So sind verschiedene Datenquellen dort derzeit nur Stand Ende 2019 verfügbar. Angesichts der sich in Immobilienbestand und Bevölkerung vergleichsweise langsam entfaltenden Veränderungen über die Zeit hinweg dürfte dies die Aussagen aber nicht wesentlich beeinflussen. Zudem wurden aktuelle Online-Quellen genutzt und im Hintergrund automatisch aktualisiert, um gleichzeitig maximale Abdeckung und bestmögliche Datenaktualität zu erreichen.

Befragungs- und öffentliche Datenquellen wurden, wenn möglich, über die genaue Hausnummer verbunden, ansonsten mit Durchschnittswerten für die Strasse. Nur Observationen mit Strassenangabe flossen in die Modellierung ein. Nach dem gängigen Vorgehen bei der Entwicklung von Machine-Learning-Modellen wurden sogenannte Test-Stichproben gebildet, welche zur Qualitätsprüfung eines Modells verwendet werden und verhindern, dass ein Modell nur innerhalb der Stichprobe gute Resultate liefert. Dieser Prozess wurde aus Qualitätsgründen mehrmals durchlaufen.

Analysemöglichkeiten im EVU Marktatlas 2022

Die Ergebnisse werden in einem selbst zu bedienenden Datenportal zur Verfügung gestellt, das online im Browser, d.h. ohne eine lokale Installation, abrufbar ist. In das Datenportal fliessen sowohl die deskriptiven Befragungsergebnisse, als auch die modellierten und auf geografische Einheiten extrapolierten Indikatoren mit ein.

Bei der mikrogeografischen Analyse im Rahmen der Studie ist es möglich, Hochrechnungen bis auf Hektar, Gemeinde oder Versorgungsgebiet zu fahren. Die entsprechenden Analysen zu Wechselbereitschaft, Marktpotenzialen für Energieprodukte oder Markenbekanntheit zeigen, dass es zwar klare regionale Unterschiede gibt, diese sich in der Regel aber nicht homogen über Versorgungsgebiete oder Gemeinden verteilen. Bei der Bewerbung gewisser Leistungen wie beispielsweise Wärmepumpen oder Photovoltaik macht es demnach Sinn, eine differenzierte Marketing- und Vertriebsstrategie umzusetzen, um sich auf besonders erfolgversprechende regionale Zielgruppen zu konzentrieren – dies verspricht mehr Effektivität und Effizienz.

Abbildung 2: Lokale Potenziale für Premium-Stromprodukte in der Stadt Bern

Abbildung 2 zeigt eine Beispielauswertung in Form einer regionalen Hektaranalyse für die Stadt Bern hinsichtlich des Marktpotenzials für Premium-Stromprodukte. Eine differenzierte Marketingstrategie, auch im Hinblick auf geografische Merkmale, kann so nachhaltig geplant und begründbar verfolgt werden.
Die geografische Extrapolation von Befragungsdaten mittels Datenanreicherung von grossen, öffentlich zugänglichen Sekundärdatenquellen und auf Machine Learning basierten Korrelationsmodellen ist eine spannende Weiterentwicklung klassischer Marktforschungs-Studiendesigns. Durch die Kombination von Meinungs- und Einstellungsdaten mit Strukturdaten profitieren schlussendlich beide Datenquellen, da sie sich erkenntnistheoretisch gegenseitig anreichern.

Die Einsatzmöglichkeiten dieses Ansatzes sind in dieser Form auf Branchen und Business Cases beschränkt, für welche eine geografische Analyseperspektive relevant ist. Im besten Fall kann er aber auch einen Ausblick darstellen, wie die klassische Marktforschung im Zeitalter immer grösserer, automatisierter Datenströme eine relevante Rolle spielen kann.

Stefan Reiser

Mitglied der Geschäftsleitung und Managing Director für Marketingforschung, LINK

stefan.reiser@link.ch

David Sanchez

Director für Energiemarktforschung, LINK

david.sanchez@link.ch

Dr. Thomas Spycher

Partner, Novalytica

thomas.spycher@novalytica.com

Download Artikel
Swiss Insights News #07

Institute Member von
SWISS INSIGHTS

www.link.ch

Alle SWISS INSIGHTS News finden Sie hier: SWISS INSIGHTS NEWS

Agilität als Erfolgsfaktor in einem Zeitalter globaler Unsicherheiten

Derzeit steigen die Preise in fast allen Produktkategorien – Experten sprechen schon von einer Inflation 2.0. Zusätzlich befeuern globale Unruhen sowie anhaltende Lieferengpässe und Warenmängel die Preissteigerungen. Die Inflation sowie die damit verbundenen steigenden Preise sorgen für finanzielle Unsicherheit bei den Konsumenten. Nur 34 Prozent der Verbraucher weltweit glauben, dass sich ihre wirtschaftliche Situation in zwölf Monaten verbessern wird – 2019 waren es noch 41 Prozent.

Gerade in diesen unsicheren Zeiten müssen Business Leader Risiken managen und neue Wachstumsmöglichkeiten schnell und zielgerichtet identifizieren. Hierbei ist Agilität heutzutage zu Recht ein massgeblicher Erfolgsfaktor. Mit einer agilen Arbeitsweise sind Unternehmen in der Lage, flexibel auf neue Herausforderungen zu reagieren, schneller Entscheidungen zu treffen und so der Konkurrenz einen Schritt voraus zu sein.

Ondrej Szabo, Regional Director gfknewron, beschreibt im folgenden Artikel, wie Unternehmen mit der Datenplattform gfknewron agil und flexibel entscheiden können.

Daten und Insights müssen immer zeitnah validiert werden, um auf volatile Marktbedingungen aber auch auf sich ändernde Konsumentenverhalten und Ansprüche zu reagieren oder ihnen vorzugreifen. Markt- und Konsumentendaten bieten die ideale Basis für unternehmerische Entscheidungen und um nachhaltiges Wachstum zu schaffen. Das gelingt jedoch nur, wenn einige kritische Faktoren beachtet werden. Einerseits müssen Daten und Insights in real time bereitgestellt werden, ein Verzug um Tage oder gar Wochen kann zu einem deutlichen Nachteil führen. Des Weiteren sind marktspezifische Insights ein Muss – der Schweizer Konsument reagiert und kauft anders als der Österreichische und dieser unterscheidet sich wiederum vom Deutschen. Doch sowohl zeitnahe als auch marktspezifische Insights helfen nur bedingt, wenn sie nicht im Sinne einer Demokratisierung in weiten Teilen des Unternehmens zugänglich gemacht werden.

Um auf neue Trends oder disruptive Marktveränderungen zu reagieren, müssen Unternehmen in kurzer Zeit belastbare Entscheidungen treffen. Flexibilität und Schnelligkeit sind klare Business-Erfolgsfaktoren.

Die «Single Source of Truth» verkürzt Abstimmungs-runden zwischen Unternehmensbereichen

Dies gelingt jedoch selten in siloartig organisierten Unternehmen: Wenn der Head of Product nur die Produktanforderungen kennt, die Geschäftsleitung auf den Unternehmenszahlen sitzt, nur die Sales-Abteilung die Kundennachfrage erfasst und lediglich das Marketing die neuesten Trends verfolgt – wie soll das Unternehmen hier schnell eine Entscheidung herbeiführen? Oft führt das zu nicht endenden, kontroversen Abstimmungsrunden – agil ist das nicht.

Oft fehlt eine von allen anerkannte Datengrundlage, eine «Single Source of Truth». Dies löst schwierige Entscheidungsprozesse aus. Anderen Abteilungen Zugriff auf die spezifischen Tools und Daten zu verschaffen, scheitert an Zugriffsrechten oder unterschiedlich strukturierten Dashboards, die mehr verwirren als informieren. Eine zentrale digitale Datenplattform kann dieses Problem lösen und Unternehmen zu mehr Agilität und Sicherheit verhelfen.

Allen Entscheidungsträgern in einem Unternehmen Zugriff auf alle relevanten Daten und Insights zu geben, die in einer gemeinsamen Plattform liegen, hilft bekannte Probleme im Entscheidungsprozess zu beheben.

Denn oft fehlt in Unternehmen eine gemeinsame Informationsbasis. Mit einer zentralen digitalen Plattform, die unternehmenseigene und externe Daten anschaulich aufbereitet, werden viele Abstimmungen überflüssig.

Zudem liegen oft keine objektiven Daten für die Entscheidungsfindung vor, oder die Datengrundlage ist aufgrund der sich rasch verändernden Marktverhältnisse schon wieder veraltet. Bauchgefühl ist zwar ein wertvoller Indikator bei der Entscheidungsfindung, aber digital aufgearbeitete Daten zu Absatzzahlen, Marktposition im Wettbewerb oder zum aktuellen Einkaufsverhalten der Konsumenten ermöglichen faktenbasierte Entscheidungen anstatt eines Blindfluges.

Demokratisierung von Daten, Tools und Insights

In einem interdisziplinären Projekt möchten wir nun die Ideen des Life Engineerings und den daraus Eine Single Source of Truth und die damit einhergehende Demokratisierung von Daten und Insights stärkt die Resilienz eines Unternehmens ungemein. Damit ändern sich Prozesse und Arbeitsweisen hin zu einem agilen Business – eine Änderung, die notwendig ist, um schneller und flexibler auf Veränderungen reagieren zu können.

DeLonghi Deutschland beispielsweise hat sich bewusst für mehr Flexibilität entschieden: Auf Basis von aktuellen Daten in der digitalen Datenplattform gfknewron bespricht das Management-Team täglich die Lage und das geplante Vorgehen. Alle Teilnehmer sind in Echtzeit über den eigenen Geschäftsbereich informiert. Wie Susanne Harring, Geschäftsführerin von DeLonghi Deutschland GmbH auf dem GfK Insight Summit letztes Jahr sagte: «Nach nur zwei Wochen Übergangszeit war das Meeting eine gesetzte und geschätzte Grösse in den täglichen Abläufen von DeLonghi, die niemand mehr missen wollte.»

Digitalisierung der Geschäftsmodelle, daten-basiertes Arbeiten und agiles Denken sind Grundvoraussetzungen für Erfolg in einem Zeitalter der globalen Unsicherheiten. Wir haben bei GfK die Herausforderungen einer solchen Umstellung in den letzten Jahren selbst gespürt, als wir uns vom klassischen Marktforscher zum digitalen Datenunternehmen gewandelt haben. Aufgrund dieser Erfahrung kennen wir die typischen Herausforderungen und können anderen Unternehmen wichtige Hilfestellungen auf ihrem Weg zu Agilität und datenbasierten Entscheidungen geben.

Ondrej Szabo

Regional Director gfknewron

ondrej.szabo@gfk.com

Der Autor
Ondrej Szabo ist Regional Director bei der GfK Schweiz und verantwortet den Vertrieb von softwarebasierten Market Intelligence Lösungen für DACH und Osteuropa. Zuvor hielt er verschiedene Management und Sales Positionen bei der GfK in Europa, Lateinamerika und Asien.

Download Artikel
Swiss Insights News #06

Institute Member von
SWISS INSIGHTS

www.gfk.ch

Alle SWISS INSIGHTS News finden Sie hier: SWISS INSIGHTS NEWS

Swiss Insights Report 2021

Wir freuen uns, Ihnen den Swiss Insights Report 2021 der Swiss Data Insights Association zustellen zu dürfen.
Die Verbands-Transformation mit dem zweiten Standbein Data Science schreitet voran. Im Swiss Insights Reports finden sie interessante Artikel sowohl aus der Welt der Data Science wie auch aus der klassischen Marktforschung.
Im letzten Drittel stellen sich einige Mitgliederinstitute vor. Verschaffen Sie sich einen Überblick über die Branche.
Wir wünschen eine spannende Lektüre!