Datensicherheit: Herausforderungen und gesetzliche Pflichten

Sich häufende Cyberattacken haben das Thema der Datensicherheit in den Fokus gerückt. Gleichzeitig handelt es sich bei der Datensicherheit um eine Vorgabe, die das Datenschutzgesetz an die Unternehmen stellt.

Die Datensicherheit ist Bestandteil des Datenschutzrechts und damit auch des Datenschutzgesetzes. Im aktuell noch geltenden Datenschutzgesetz (DSG) ist die Datensicherheit in Art. 7 DSG geregelt. Danach müssen Personendaten durch angemessene technische und organisatorische Massnahmen gegen unbefugtes Bearbeiten geschützt werden. Per September 2023 wird das revidierte Datenschutzgesetz (revDSG) in der Schweiz in Kraft treten.

Die dann massgebliche Vorschrift zur Datensicherheit ist Art. 8 revDSG. Die Vorschrift formuliert in Absatz 1 die Anforderungen an die Datensicherheit wie folgt: «Der Verantwortliche und der Auftragsbearbeiter gewährleisten durch geeignete technische und organisatorische Massnahmen eine dem Risiko angemessene Datensicherheit.». Abs. 2 hält fest, dass die Massnahmen es ermöglichen müssen, Verletzungen der Datensicherheit zu vermeiden. Darüber hinaus bestimmt Abs. 3, dass der Bundesrat Bestimmungen über die Mindestanforderungen an die Datensicherheit erlässt.

Dies erfolgt konkret mittels der Verordnung zum Datenschutzgesetz (VDSG). Die Revision des DSG erfordert eine Anpassung der VDSG. Davon sind auch die Regelungen über die Mindestanforderungen an die Datensicherheit betroffen. Die VDSG befindet sich daher aktuell in der Revision, es ist bisher ein Entwurf (E-VDSG) veröffentlicht und in die (nunmehr bereits abgeschlossene) Vernehmlassung geschickt worden.

Im Rahmen der Vernehmlassung äusserten Anwender wie Verbände, Kanzleien und Unternehmen erhebliche Kritik am E-VDSG. Insbesondere kritisierten sie, dass der bisherige Entwurf zu detaillierte und zu umfangreiche Vorgaben für Unternehmen, insbesondere für KMU, enthalte. Im Hinblick auf hier noch zu erwartende Ergänzungen und/oder Anpassungen durch den Gesetzgeber bleibt abzuwarten, welches Anforderungsniveau und welche konkreten Massnahmen zur Datensicherheit die revidierte VDSG (revVDSG) an Unternehmen stellt. Die aktuelle Entwicklung hierzu sollten die Fachverantwortlichen im Unternehmen genau beobachten.

Vorgaben an die Datensicherheit nach dem aktuellen DSG

Zentrale Vorgabe der gesetzlichen Regelung ist es, Personendaten gegen die unbefugte Bearbeitung zu schützen. Dabei hat der Schutz der Daten vor den Risiken einer unbefugten Bearbeitung durch angemessene organisatorische und technische Massnahmen zu erfolgen. Üblicherweise erfolgt eine Analyse potentieller Risiken und erforderlicher Massnahmen im Rahmen eines Datensicherheitskonzepts. Dieses ermöglicht eine gesamtheitliche Bewertung und Einordnung der ergriffenen Massnahmen. In der VDSG sind verschiedene technische und organisatorische Massnahmen umschrieben. Zu beachten sind insbesondere die Art. 8 bis 11 VDSG sowie die Art. 20 und 21 VDSG (für Bundesorgane).

Bereits erkennbare Vorgaben aus der Botschaft zum revDSG

In den Gesetzgebungsmaterialien zum revDSG sind grundsätzliche Überlegungen zu den Anforderungen an die Datensicherheit enthalten. Die Vorschrift des Art. 8 revDSG geht von einem risikobasierten Ansatz aus. Die Botschaft (Botschaft Totalrevision Datenschutzgesetz BBl 2017 7031) formuliert hierzu «Je grösser das Risiko einer Verletzung der Datensicherheit, umso höher sind die Anforderungen an die zu treffenden Massnahmen.» Darüber hält die Botschaft fest, dass sowohl Verantwortliche als auch Auftragsbearbeiter dazu verpflichtet sind, «für ihre Systeme eine geeignete Sicherheitsarchitektur vorzusehen und sie z. B. gegen Schadsoftware oder Datenverlust zu schützen».

Bereits jetzt empfohlene, ausgewählte Massnahmen zur Daten- und Cybersicherheit

Bereits jetzt empfehlen sich verschiedene Massnahmen zur Datensicherheit. Dabei kommen sowohl technische als auch organisatorische Massnahmen in Betracht, welche das Risiko eines erfolgreichen Cyberangriffs mindern. Nachfolgend werden einzelne, ausgewählte Massnahmen vorgeschlagen. Es ist zu beachten, dass es sich dabei nicht um eine abschliessende oder vollumfängliche Aufzählung aller potentiellen oder relevanten Massnahmen handelt.

Schulung und Sensibilisierung von Mitarbeitenden

Eine wesentliche organisatorische Massnahme stellt die hinreichende Schulung und Sensibilisierung der Mitarbeitenden dar. Der menschliche Faktor ist in einer Sicherheitsarchitektur häufig eine Schwachstelle. Der unzureichende Schutz von Zugangscodes, Passwörtern, Zugangsberechtigungen, usw. stellt ein potentielles Einfallstor für unbefugte Zugriffe dar. Entsprechende Schulung der Mitarbeitenden kann ein erhebliches Mass an Awareness für Risikosituationen und das richtige Verhalten schaffen.

Zugriffsberechtigungen

Wenn unternehmensintern über alle Stufen und Abteilungen hinweg weitgehende Zugriffsrechte auf sämtliche Informationen und Daten bestehen, wird dies häufig mit flachen Hierarchien und schnellen Entscheidungswegen gerechtfertigt. Unter dem Aspekt der Datensicherheit müssen indessen tatsächlich nur sehr wenige Mitarbeitende derart weitreichende Zugriffsrechte haben. Um Daten auch intern vor nicht erforderlichen Zugriffen und damit potentiellen Risiken zu schützen, wird empfohlen nur diejenigen Zugriffsrechte zu gewähren, die der Mitarbeitende für seine Tätigkeit auch tatsächlich benötigt. Zur Vermeidung der (unbeabsichtigten) Installation von Schadsoftware ist in diesem Zusammenhang überdies zu empfehlen, dass die Berechtigung zur Installation von Software nur sehr eingeschränkt vergeben wird und stattdessen den Mitarbeitenden ein verstärkter IT-Support zur Verfügung steht.

Aktualität der eingesetzten IT-Anwendungen

Schadsoftware nutzt häufig Lücken in veralteten Softwareanwendungen aus. Daher wird empfohlen die Betriebssysteme stets mit den aktuellen Updates/Sicherheitsupdates auf den neusten Stand zu bringen. Zugleich sind auch Browser und sonstige Softwareanwendungen im Hinblick auf die Aktualität ihrer Updates zu prüfen. Zudem sollten alle im Einsatz befindlichen Geräte, also nicht nur Laptops, sondern auch Mobiltelefone, Drucker, Tablets, usw. daraufhin kontrolliert werden, ob ihre Betriebssysteme und Sicherheitsupdates auf dem neusten Stand sind. Auch wenn Mitarbeitende eigene Geräte nutzen (BYOD), ist auf die Aktualität der Schutzmassnahmen zu achten. Schliesslich gilt es entsprechende Schutzsoftware (sog. Virenschutz) vorzuhalten und Firewalls zum Schutz des eigenen Systems zu aktivieren.

Verschlüsselung

Bei der Bearbeitung von wichtigen und/oder sensiblen Daten ist stets darauf zu achten, dass diese nur verschlüsselt gespeichert, übermittelt oder transportiert werden.

Vertragsmanagement

Im Zusammenhang mit der Bearbeitung und Auslagerung von Datenbearbeitungsvorgängen, beispielsweise indem Cloud-Dienstleister, (Online-)CRMs, Analyse-Tools usw., zum Einsatz kommen, ist stets die Frage nach der Wahrung der Sicherheit für die betroffenen Datensätze zu beachten. Hier kommen insbesondere vertragsrechtliche Regelungen mit der anderen Partei in Betracht. Diese regeln die einzuhaltenden Standards, beinhalten klare Vorgehensweisen bei Verstössen gegen die Datensicherheit, bestimmen Meldepflichten an den Vertragspartner und benennen Haftungsregeln, Verantwortungssphären usw. Darüber hinaus können Unternehmen vom Vertragspartner auch verlangen, dass er ein Sicherheitskonzept vorlegt. Wie die Einhaltung der vereinbarten Sicherheitsstandards kontrolliert wird oder werden kann, ist üblicherweise Teil des Vertrags zwischen dem Unternehmen und dem Partner, welcher Daten extern bearbeitet.

Weitere zusätzliche Regelungsinhalte werden dann erforderlich, wenn es sich um einen ausländischen Vertragspartner handelt. Hat dieser seinen Sitz darüber hinaus in einem Land, das kein gleichwertiges Datenschutzniveau bietet (vgl. hierzu die Länderliste des EDÖB), werden weitere vertragliche (u. a. Verwendung von Standardvertragsklauseln) und prozessuale (DTIAs = Data Transfer Impact Assessments; Risikoabschätzung hinsichtlich der geplanten Datentransfers) Massnahmen erforderlich, um die Datensicherheit hinreichend zu gewährleisten. Dies ist insbesondere im Fall von Datentransfer in die USA, bspw. bei Nutzung von US-Cloud-Dienstleistungen, Online-CRMs, usw., erforderlich.

Empfehlung

Die Datensicherheit ist eine zentrale datenschutzrechtliche Vorgabe, die im DSG wie auch dem revDSG festgehalten ist. Zur Umsetzung der Datensicherheit im Unternehmen empfiehlt es sich ein Sicherheitskonzept zu erstellen, das den rechtlichen Anforderungen entspricht und diese technisch umsetzt. Darüber hinaus kommt der vertraglichen Ausgestaltung zur Datensicherheit bei Datentransfers eine besondere Bedeutung zu. Hinsichtlich der neuen und konkretisierten Anforderungen an die Datensicherheit durch die revVDSG bleibt der Umfang der umzusetzenden Massnahmen abzuwarten. Diese Massnahmen lassen sich je nach Ausmass der Anforderungen indessen in ein bestehendes Sicherheitskonzept integrieren, so dass sich dessen Erstellung schon jetzt anbietet.

Marcel Griesinger

Rechtsanwaltskanzlei Griesinger, Marcel Griesinger

marcel.griesinger@kanzlei-griesinger.ch
+41 79 871 52 56

Der Autor
Marcel Griesinger, Rechtsanwalt, Inhaber Rechtsanwaltskanzlei Griesinger, die auf Business Law und Corporate Privacy Law spezialisiert ist, Hochschuldozent Wirtschafts- und Datenschutzrecht

Download Artikel
Swiss Insights News #09

Alle SWISS INSIGHTS News finden Sie hier: SWISS INSIGHTS NEWS

What’s a customer worth? Improving customer lifetime value prediction

Customer lifetime value (CLV) is a key metric for every customer-centric marketer. Predicting the future value of a customer more accurately and reliably, would help to increase the marketing efficiency. Thus, its importance is widely acknowledged in industry and academia. But surveys show that CLV measurement is often a challenge in business practice. Retailers or other non-contractual businesses often fail to accurately predict customer purchase behavior. In particular, in the medium and long term.

Two reasons are key for this: (1) In non-contractual settings, customers do not formally announce when they will stop purchasing from a business. This contrasts contractual business settings such as insurance firms and poses a great challenge for modeling the future purchase behavior of customers. (2) Further, many businesses are subject to seasonal patterns. They experience for example a summer dip as many regular customers are on holidays or they observe significant increases related to special shopping events like Black Friday or Christmas.

The novel approach accounts for all these challenges and provides accurate and reliable estimates of the future value for each individual customer. Recent benchmarks also show that this probability-based approach not only provides better and more reliable prediction accuracy than machine learning approaches but is also faster to compute and does not require specialized computing infrastructure. By providing an accompanying open-source software, it is readily applicable for any business.

The novelty of the proposed approach is to include previously neglected, but from a practical point of view crucial, context variables in the statistical modeling. For the first time, it is possible to consider the effects of customer characteristics such as income and place of residence as well as dynamic effects such as shopping events. Although this seems logical and perhaps even overdue from a content point of view, the challenge lay in the statistical complexity that such an undertaking entails.

To guarantee reliability of the results across a wide variety of scenarios in corporate practice, this study considered data from three different industries. In addition, several alternative statistical models were calculated as benchmarks, this included widely used „rules of thumb“, established traditional statistical models and latest machine learning approaches. Furthermore, short-, medium-, and long-term forecast periods were considered to account for the widely varying planning horizons in practice. The added value of the proposed novel approach could thus be demonstrated over a broad database. The exemplary performance is shown in Figure 1.

Figure 1: Comparison of the aggregated performance of the extended Pareto/NBD Model with other approaches

How to use this novel approach as a data analyst

To make the application of this novel approach as easy as possible in practice, an open-source software called „CLVTools“ was developed (www.clvtools.com). CLVTools is a software package for the statistical programming environment R. Beyond the latest work presented here, CVLTools also includes implementations of further complementary and alternative modeling techniques to predict CLV. To date, this software has been downloaded more than 30,000 times.

In its simplest form, without considering any contextual factors, the estimation of CLV only requires a minimal amount of data. At its core, three input variables of customers purchase history are required. This data is available for any firm: a customer identifier (Id), the purchase date, and the purchase amount. Exemplary input data is shown in Table 1.

Table 1: Exemplary input data for the probabilistic modelling

Using the CLVTools package in R only three steps are required to predict customer lifetime value in simplest application case:
• Step 1: Import the historical customer purchase data.
• Step 2: Estimate the model parameters.
• Step 3: Predict the customer purchase behavior.
Figure 2 summarizes the workflow and avai-lable options of CLVTools.

Figure 2: Workflow for CLVTools

Multiple options to check and plot the data along this workflow are provided. Moreover, advanced model features and alternative model options are available. See https://www.clvtools.com/articles/CLVTools.html for a detailed walkthrough.

Marketing practice thus has a new, freely available tool at its disposal to better coordinate customer-centric marketing activities. Customer value as a central marketing metric is used in a variety of ways, e.g., to individualize coupons, to determine the most effective marketing channels or to allocate resources for win-back campaigns. An accurate calculation of the customer value based on our proposed approach helps to significantly improve the customer-specific personalization and thus the marketing efficiency.

Research Team

Patrick Bachmann (ETH Zurich)
Markus Meierer (University of Geneva)
Jeffrey Näf (ETH Zurich)
Patrik Schilter (Crealytics GmbH)

Patrick Bachmann

Post Doctoral Researcher
ETH Zurich

Markus Meierer

Assistant Professor of Marketing
Analytics
University of Geneva

markus.meierer@unige.ch

Download Artikel
Swiss Insights News #08

Alle SWISS INSIGHTS News finden Sie hier: SWISS INSIGHTS NEWS

Data Science küsst Marktforschung voller Energie

Für eine professionelle und aktive Marktbearbeitung im Privatkundenbereich sind auch Energieversorgungsunternehmen (EVU) auf Geo- und Konsumdaten angewiesen. In aller Regel verfügen Energieversorger über entsprechende Informationen aber höchstens für ihr eigenes Versorgungsgebiet, bzw. für einen Teil ihrer privaten Stromkunden. Aus diesem Grund haben das Schweizer Marktforschungsinstitut LINK und die Data-Science-Spezialisten von Novalytica gemeinsam den EVU Marktatlas B2C konzipiert und 2022 erstmals umgesetzt. Das Studienkonzept basiert auf Expertengesprächen und Fachinputs aus der Branche, berücksichtigt Befragungs- und öffentlich zugängliche Sekundärdaten und bietet auf dieser Grundlage mikrogeografische Analysemöglichkeiten.

Methodischer Ansatz

Die Studie basiert auf der Hochrechnung einer umfangreichen Primärdatenerhebung auf die gesamte Schweiz. LINK führte im vierten Quartal 2021 eine Befragung von mehr als 10’000 Privatkunden im Alter zwischen 18 und 79 Jahren in der Schweiz durch, die auf Basis von Region, Alter und Geschlecht quotiert wurde und deren Stichprobe damit an der Bevölkerungsverteilung gemäss Bundesamt für Statistik ausgerichtet ist. Das Beantworten des Fragebogens dauerte ca. 10 Minuten und beinhaltete diverse Themen rund um die Einstellung gegenüber Energiethemen, der Marken- und Kundenwahrnehmung von Energieversorgern und dem Potenzial von Energieprodukten. Novalytica kombinierte alsdann eine Vielzahl öffentlich verfügbarer Geodaten.

Neben Daten des Bundesamtes für Statistik, des Gebäuderegisters, des Handelsregisters oder kantonaler Geoportale umfasste diese Recherche auch online verfügbare Quellen wie Immobilieninserate. Neben Datenpunkten zur Wohnsituation (u. a. Gebäudetyp, Baujahr, Renovationen, Preis-/Mietniveau, Grösse), welche bei Fragen rund um Energie zentral sind und gleichzeitig einiges über die Haushalte preisgeben, sind auch Datenpunkte zur Soziodemographie (u. a. Alter, Haushaltsgrösse, Anteil Nicht-Schweizer) auf Ebene Hektar vorhanden. Die aus diesen Quellen kombinierten Daten werden aufbereitet und können so jeder Strasse und Adresse aus den Befragungsdaten zugeordnet werden.

Die Ergebnisse der Privatkundenbefragung wurden anschliessend mit den Geodaten verbunden. Mittels der Machine-Learning-basierten Modellierung Gradient Boosting werden die Survey-Antworten auf Gemeinde- und Hektarebene hochgerechnet. Das Modell ermittelt Zusammenhänge zwischen den einzelnen Variablen und erstellt basierend darauf eine Schätzung. Korreliert beispielsweise die durchschnittliche Haushaltsgrösse oder der Anteil Einfamilienhäuser mit der Wechselwahrscheinlichkeit, wird dies vom Modell berücksichtigt. Zur Illustration des Vorgehens zeigt Abbildung 1 beispielhaft das Resultat eines Modells für die Schätzung der Wechselbereitschaft privater Stromkunden aggregiert auf Gemeindeebene.

Abbildung 1: Modellierte Wechselaffinität auf Ebene Gemeinde

Qualitätsaspekte bei öffentlich zugänglichen Daten und der Modellierung

Ein wesentlicher Teil der genutzten Sekundärdaten stammt von offiziellen Quellen wie dem BfS, was eine hohe Datenqualität sicherstellt. Allerdings haben diese oft einen Time Lag: So sind verschiedene Datenquellen dort derzeit nur Stand Ende 2019 verfügbar. Angesichts der sich in Immobilienbestand und Bevölkerung vergleichsweise langsam entfaltenden Veränderungen über die Zeit hinweg dürfte dies die Aussagen aber nicht wesentlich beeinflussen. Zudem wurden aktuelle Online-Quellen genutzt und im Hintergrund automatisch aktualisiert, um gleichzeitig maximale Abdeckung und bestmögliche Datenaktualität zu erreichen.

Befragungs- und öffentliche Datenquellen wurden, wenn möglich, über die genaue Hausnummer verbunden, ansonsten mit Durchschnittswerten für die Strasse. Nur Observationen mit Strassenangabe flossen in die Modellierung ein. Nach dem gängigen Vorgehen bei der Entwicklung von Machine-Learning-Modellen wurden sogenannte Test-Stichproben gebildet, welche zur Qualitätsprüfung eines Modells verwendet werden und verhindern, dass ein Modell nur innerhalb der Stichprobe gute Resultate liefert. Dieser Prozess wurde aus Qualitätsgründen mehrmals durchlaufen.

Analysemöglichkeiten im EVU Marktatlas 2022

Die Ergebnisse werden in einem selbst zu bedienenden Datenportal zur Verfügung gestellt, das online im Browser, d.h. ohne eine lokale Installation, abrufbar ist. In das Datenportal fliessen sowohl die deskriptiven Befragungsergebnisse, als auch die modellierten und auf geografische Einheiten extrapolierten Indikatoren mit ein.

Bei der mikrogeografischen Analyse im Rahmen der Studie ist es möglich, Hochrechnungen bis auf Hektar, Gemeinde oder Versorgungsgebiet zu fahren. Die entsprechenden Analysen zu Wechselbereitschaft, Marktpotenzialen für Energieprodukte oder Markenbekanntheit zeigen, dass es zwar klare regionale Unterschiede gibt, diese sich in der Regel aber nicht homogen über Versorgungsgebiete oder Gemeinden verteilen. Bei der Bewerbung gewisser Leistungen wie beispielsweise Wärmepumpen oder Photovoltaik macht es demnach Sinn, eine differenzierte Marketing- und Vertriebsstrategie umzusetzen, um sich auf besonders erfolgversprechende regionale Zielgruppen zu konzentrieren – dies verspricht mehr Effektivität und Effizienz.

Abbildung 2: Lokale Potenziale für Premium-Stromprodukte in der Stadt Bern

Abbildung 2 zeigt eine Beispielauswertung in Form einer regionalen Hektaranalyse für die Stadt Bern hinsichtlich des Marktpotenzials für Premium-Stromprodukte. Eine differenzierte Marketingstrategie, auch im Hinblick auf geografische Merkmale, kann so nachhaltig geplant und begründbar verfolgt werden.
Die geografische Extrapolation von Befragungsdaten mittels Datenanreicherung von grossen, öffentlich zugänglichen Sekundärdatenquellen und auf Machine Learning basierten Korrelationsmodellen ist eine spannende Weiterentwicklung klassischer Marktforschungs-Studiendesigns. Durch die Kombination von Meinungs- und Einstellungsdaten mit Strukturdaten profitieren schlussendlich beide Datenquellen, da sie sich erkenntnistheoretisch gegenseitig anreichern.

Die Einsatzmöglichkeiten dieses Ansatzes sind in dieser Form auf Branchen und Business Cases beschränkt, für welche eine geografische Analyseperspektive relevant ist. Im besten Fall kann er aber auch einen Ausblick darstellen, wie die klassische Marktforschung im Zeitalter immer grösserer, automatisierter Datenströme eine relevante Rolle spielen kann.

Stefan Reiser

Mitglied der Geschäftsleitung und Managing Director für Marketingforschung, LINK

stefan.reiser@link.ch

David Sanchez

Director für Energiemarktforschung, LINK

david.sanchez@link.ch

Dr. Thomas Spycher

Partner, Novalytica

thomas.spycher@novalytica.com

Download Artikel
Swiss Insights News #07

Institute Member von
SWISS INSIGHTS

www.link.ch

Alle SWISS INSIGHTS News finden Sie hier: SWISS INSIGHTS NEWS

Agilität als Erfolgsfaktor in einem Zeitalter globaler Unsicherheiten

Derzeit steigen die Preise in fast allen Produktkategorien – Experten sprechen schon von einer Inflation 2.0. Zusätzlich befeuern globale Unruhen sowie anhaltende Lieferengpässe und Warenmängel die Preissteigerungen. Die Inflation sowie die damit verbundenen steigenden Preise sorgen für finanzielle Unsicherheit bei den Konsumenten. Nur 34 Prozent der Verbraucher weltweit glauben, dass sich ihre wirtschaftliche Situation in zwölf Monaten verbessern wird – 2019 waren es noch 41 Prozent.

Gerade in diesen unsicheren Zeiten müssen Business Leader Risiken managen und neue Wachstumsmöglichkeiten schnell und zielgerichtet identifizieren. Hierbei ist Agilität heutzutage zu Recht ein massgeblicher Erfolgsfaktor. Mit einer agilen Arbeitsweise sind Unternehmen in der Lage, flexibel auf neue Herausforderungen zu reagieren, schneller Entscheidungen zu treffen und so der Konkurrenz einen Schritt voraus zu sein.

Ondrej Szabo, Regional Director gfknewron, beschreibt im folgenden Artikel, wie Unternehmen mit der Datenplattform gfknewron agil und flexibel entscheiden können.

Daten und Insights müssen immer zeitnah validiert werden, um auf volatile Marktbedingungen aber auch auf sich ändernde Konsumentenverhalten und Ansprüche zu reagieren oder ihnen vorzugreifen. Markt- und Konsumentendaten bieten die ideale Basis für unternehmerische Entscheidungen und um nachhaltiges Wachstum zu schaffen. Das gelingt jedoch nur, wenn einige kritische Faktoren beachtet werden. Einerseits müssen Daten und Insights in real time bereitgestellt werden, ein Verzug um Tage oder gar Wochen kann zu einem deutlichen Nachteil führen. Des Weiteren sind marktspezifische Insights ein Muss – der Schweizer Konsument reagiert und kauft anders als der Österreichische und dieser unterscheidet sich wiederum vom Deutschen. Doch sowohl zeitnahe als auch marktspezifische Insights helfen nur bedingt, wenn sie nicht im Sinne einer Demokratisierung in weiten Teilen des Unternehmens zugänglich gemacht werden.

Um auf neue Trends oder disruptive Marktveränderungen zu reagieren, müssen Unternehmen in kurzer Zeit belastbare Entscheidungen treffen. Flexibilität und Schnelligkeit sind klare Business-Erfolgsfaktoren.

Die «Single Source of Truth» verkürzt Abstimmungs-runden zwischen Unternehmensbereichen

Dies gelingt jedoch selten in siloartig organisierten Unternehmen: Wenn der Head of Product nur die Produktanforderungen kennt, die Geschäftsleitung auf den Unternehmenszahlen sitzt, nur die Sales-Abteilung die Kundennachfrage erfasst und lediglich das Marketing die neuesten Trends verfolgt – wie soll das Unternehmen hier schnell eine Entscheidung herbeiführen? Oft führt das zu nicht endenden, kontroversen Abstimmungsrunden – agil ist das nicht.

Oft fehlt eine von allen anerkannte Datengrundlage, eine «Single Source of Truth». Dies löst schwierige Entscheidungsprozesse aus. Anderen Abteilungen Zugriff auf die spezifischen Tools und Daten zu verschaffen, scheitert an Zugriffsrechten oder unterschiedlich strukturierten Dashboards, die mehr verwirren als informieren. Eine zentrale digitale Datenplattform kann dieses Problem lösen und Unternehmen zu mehr Agilität und Sicherheit verhelfen.

Allen Entscheidungsträgern in einem Unternehmen Zugriff auf alle relevanten Daten und Insights zu geben, die in einer gemeinsamen Plattform liegen, hilft bekannte Probleme im Entscheidungsprozess zu beheben.

Denn oft fehlt in Unternehmen eine gemeinsame Informationsbasis. Mit einer zentralen digitalen Plattform, die unternehmenseigene und externe Daten anschaulich aufbereitet, werden viele Abstimmungen überflüssig.

Zudem liegen oft keine objektiven Daten für die Entscheidungsfindung vor, oder die Datengrundlage ist aufgrund der sich rasch verändernden Marktverhältnisse schon wieder veraltet. Bauchgefühl ist zwar ein wertvoller Indikator bei der Entscheidungsfindung, aber digital aufgearbeitete Daten zu Absatzzahlen, Marktposition im Wettbewerb oder zum aktuellen Einkaufsverhalten der Konsumenten ermöglichen faktenbasierte Entscheidungen anstatt eines Blindfluges.

Demokratisierung von Daten, Tools und Insights

In einem interdisziplinären Projekt möchten wir nun die Ideen des Life Engineerings und den daraus Eine Single Source of Truth und die damit einhergehende Demokratisierung von Daten und Insights stärkt die Resilienz eines Unternehmens ungemein. Damit ändern sich Prozesse und Arbeitsweisen hin zu einem agilen Business – eine Änderung, die notwendig ist, um schneller und flexibler auf Veränderungen reagieren zu können.

DeLonghi Deutschland beispielsweise hat sich bewusst für mehr Flexibilität entschieden: Auf Basis von aktuellen Daten in der digitalen Datenplattform gfknewron bespricht das Management-Team täglich die Lage und das geplante Vorgehen. Alle Teilnehmer sind in Echtzeit über den eigenen Geschäftsbereich informiert. Wie Susanne Harring, Geschäftsführerin von DeLonghi Deutschland GmbH auf dem GfK Insight Summit letztes Jahr sagte: «Nach nur zwei Wochen Übergangszeit war das Meeting eine gesetzte und geschätzte Grösse in den täglichen Abläufen von DeLonghi, die niemand mehr missen wollte.»

Digitalisierung der Geschäftsmodelle, daten-basiertes Arbeiten und agiles Denken sind Grundvoraussetzungen für Erfolg in einem Zeitalter der globalen Unsicherheiten. Wir haben bei GfK die Herausforderungen einer solchen Umstellung in den letzten Jahren selbst gespürt, als wir uns vom klassischen Marktforscher zum digitalen Datenunternehmen gewandelt haben. Aufgrund dieser Erfahrung kennen wir die typischen Herausforderungen und können anderen Unternehmen wichtige Hilfestellungen auf ihrem Weg zu Agilität und datenbasierten Entscheidungen geben.

Ondrej Szabo

Regional Director gfknewron

ondrej.szabo@gfk.com

Der Autor
Ondrej Szabo ist Regional Director bei der GfK Schweiz und verantwortet den Vertrieb von softwarebasierten Market Intelligence Lösungen für DACH und Osteuropa. Zuvor hielt er verschiedene Management und Sales Positionen bei der GfK in Europa, Lateinamerika und Asien.

Download Artikel
Swiss Insights News #06

Institute Member von
SWISS INSIGHTS

www.gfk.ch

Alle SWISS INSIGHTS News finden Sie hier: SWISS INSIGHTS NEWS