Swiss Insights geht eine strategische Kooperation mit der Swiss Data Alliance ein. Gemeinsam setzen wir uns künftig verstärkt für den ethischen, souveränen und kollaborativen Umgang mit Daten ein – in Politik, Wirtschaft und Gesellschaft.
Was bedeutet das konkret für Sie?
Mehr Sichtbarkeit: Beide Organisationen sind künftig auf den jeweiligen Plattformen vertreten.
Inhaltliche Mitwirkung: Expert:innen aus beiden Netzwerken bringen ihre Perspektiven ein. Ein aktuelles Beispiel ist das neue Rahmengesetz zur Sekundärnutzung von Daten.
Mehr Eventformate: Durch die Kooperation beteiligen sich Swiss Insights und die Swiss Data Alliance gegenseitig an Veranstaltungen – etwa beim Swiss Data Space Forum oder den Swiss Insights TALKs.
Data Sharing & Data Ethics: Gemeinsame Umfragen, Studien und Community-Aktivitäten bieten Ihnen zusätzliche Orientierung und Best Practices.
Erweiterte Netzwerke: Mitglieder profitieren vom kombinierten Zugang zu den Kontakten und Aktivitäten beider Organisationen und ihrer Partner – insbesondere im politischen und gesellschaftlichen Kontext.
Diese Partnerschaft eröffnet Ihnen als Mitglied zusätzlichen Zugang zu relevanten Diskussionen, Fachwissen und Netzwerken rund um Datenpolitik, digitale Souveränität und den Einsatz von KI.
Wir halten Sie über konkrete Angebote und Beteiligungsmöglichkeiten regelmässig auf dem Laufenden.
Silicon Samples & KI in der Marktforschung: Hype oder echte Revolution?
Braucht die Marktforschung überhaupt noch menschliche Proband:innen? Oder liefern KI-Modelle längst bessere, schnellere und günstigere Daten?
Am Swiss Insights TALK 2025 wurde diese Frage aus unterschiedlichen Perspektiven beleuchtet – wissenschaftlich, technologisch und praxisnah. Die klare Erkenntnis: Die besten Resultate entstehen, wenn sich Mensch und KI ergänzen. Nicht entweder-oder – sondern hybrid und verantwortungsvoll.
KI als Teammitglied – nicht als Ersatz Prof. Dr. Steffen Mueller (ZHAW) zeigte, dass KI den Research-Prozess unterstützen, strukturieren und beschleunigen kann – vor allem in der Vorbereitung, Analyse und Interpretation. Doch sie ersetzt keine fundierte wissenschaftliche Methodik und auch keine menschliche Urteilskraft.
Predictive Eye Tracking – ein Blick in die Zukunft? Sibylle Oetiker (GIM Suisse) demonstrierte am Beispiel von Predictive Eye Tracking, wie KI Blickverläufe simulieren kann – ohne echte Testpersonen. Das spart Kosten und Zeit. Doch die Methode hat klare Grenzen: Ohne Kontext und ohne realitätsnahe Szenarien kann die Prognose in die Irre führen.
Silicon Samples – synthetische Daten auf dem Prüfstand In einer länderübergreifenden Vergleichsstudie untersuchten Jan Eubel und Christoph Bräunlich (BSI) zusammen mit Prof. Dr. Steffen Mueller, wie gut Silicon Samples reale Proband:innen abbilden. Das Ergebnis: Sie können als Unterstützung im Prozess oder als Grundlage für tiefergehende Analysen eingesetzt werden, sind aber (noch) kein Ersatz.
Digital Twins of Customers – Der Unterschied zwischen Spielerei und echtem Impact Anne Scherer (Delta Labs) machte klar: Digitale Zwillinge liefen wertvolle Insights – aber nur, wenn sie richtig aufgebaut und trainiert sind. Dazu muss Methodik, Datenbasis und Anwendung sorgfältig gewählt werden.
Fazit: KI wird die Marktforschung verändern. Die Frage ist nicht ob, sondern wie. Der Swiss Insights TALK 2025 zeigte: Die besten Ergebnisse entstehen, wenn Mensch und LLM (Large Language Model) zusammenarbeiten. Nicht entweder-oder – sondern sowohl-als-auch.
Ein grosses Dankeschön geht an unsere Eventpartner BSI, GIM Suisse AG und die TX Group sowie an alle Teilnehmenden!
Präsentationen
KI in der Marktforschung: Framework und aktuelle Ergebnisse aus der Wissenschaft Prof. Dr. Steffen Mueller (Download Präsentation)
Predictive Eye Tracking: Zwischen Potenzial und Grenzen Sibylle Oetiker (Download Präsentation)
Silicon Samples – Erste Gehversuche: ein Vergleich mit realen Probanden in drei Ländern Jan Eubel, Christoph Bräunlich, Prof. Dr. Steffen Mueller (Download Präsentation)
Not if, but how – Der Unterschied zwischen Spielerei und echtem Impact von Digital Twins of Customers Anne Scherer (Download Präsentation)
Dass das Thema AI bewegt, wissen wir alle. “AI in Qualitative Research” ist in der Insights Branche ein besonders interessantes Thema. AI kann nervenaufreibende Routinearbeiten übernehmen und uns damit das Leben erleichtern. Doch wo sind ihre Grenzen? Und wie finden wir das geeignete Tool für unsere Fragestellung oder unser Business? Macht AI Qualitative Forschung wirklich skalierbar? Und braucht es denn uns Menschen noch?
Die Referent:innen haben das Thema aus verschiedenen Blickwinkeln beleuchtet. Wir haben folgende Erkenntnisse mitgenommen…
Strukturierter Implementierungsprozess Ein klar definierter Test- und Feedbackprozess ist notwendig, um die Wirksamkeit von AI-Tools sicherzustellen und eine nachhaltige Integration zu gewährleisten.
Anwendung in der Marktforschung Generative KI kann kontextuelle Unterstützung und explorative Analysen bieten, ist aber eine Ergänzung zur klassischen Forschung und ersetzt sie nicht. Sie eignet sich für “Quali-Light” Studien oder zur Anreicherung offener quantitativer Fragestellungen, aber kaum für eine gehaltvolle Qualistudien.
Unverzichtbare Rolle des Menschen AI kann menschliche Intelligenz nicht ersetzen, aber als “Teammitglied” den Arbeitsaufwand reduzieren und die Effizienz steigern.
Grenzen und Kosten der KI-Nutzung Die Toolkosten für Synthetische User sind niedrig, jedoch erfordert eine sorgfältige Anwendung viel Zeit. Zudem liefern die Tools oft generische Ergebnisse und eignen sich deshalb besser für allgemeine Fragestellungen als für spezifische Kundenbedürfnisse.
Grundlagen und Herausforderungen der generativen KI für die qualitative Marktforschung Dr. Stefan Oglesby (Download Präsentation)
AI Enhanced MR – a perfect team: How good are conversational agents for online qualitative research? Raúl Fuertes und Laurence Minisini (Download Präsentation)
Probieren mit studieren: Wie können wir KI-Anwendungen effizient evaluieren? Beat Fischer und Dr. Isabella Bertschi (Download Präsentation)
Synthetic User vs. echte Befragte:Wie gut lassen sich qualitative Forschungsfragen mit virtuellen Personas beantworten? Nina Burger und Lukas Schönenberger (Download Präsentation)
Philip Michelund Shkumbin Sadriu haben sich zusammen mit ihrem Team und mit Unterstützung des Post-internen Teams Digital Ethics (Christina Meyer & Sophia Ding) in den letzten Jahren stark für den fairen und transparenten Umgang mit Daten und Auswertungen in den Services Data & Analytics im Werbemarkt eingesetzt.
Unter anderem wurde ein Frühwarnsystem entwickelt, in welches die Fragen des Data Fairness Labels von Swiss Insights integriert wurden, um damit Digitalethik via definierte Prozesse im Unternehmen zu verankern.
Die Auszeichnung steht für den transparenten und verantwortungsvollen Umgang bei der Bearbeitung und Analyse von grossen Datenmengen und basiert auf der Selbstdeklaration und Dokumentation der herangezogenen Datensätze und der verwendeten Datenmodelle.
Wir gratulieren den Verantwortlichen für ihren Einsatz im Bereich der Digitalethik!
Weitere Informationen zum Data Fairness Label finden Sie hier Data Fairness Label
Swiss Insights hat am 26. August 2024 zum zweiten Mal den C-Level TALK zum Thema Digitalethik durchgeführt. Swiss Insights Präsident Stefan Langenauer weist darauf hin, dass mit diesem Format bewusst das C-Level angesprochen wird, weil die Data Scientists die Unterstützung ihrer Vorgesetzten brauchen, um sich im Alltag mit digitalethischen Fragen auseinandersetzen zu können. Diese Auseinandersetzung kostet, ist aber eine Investition in ein rasant wachsendes Geschäftsfeld.
Auch dieses Geschäftsfeld wird vom Gesetzgeber reguliert. Wenn sich die Anbieter seriös mit den ethischen Fragestellungen darin auseinandersetzen und sich selber ein Framework geben, wird die Regulierung weniger strikt sein als bei Wildwestmethoden; die Regulierung wird dann die notwendigen Spielräume lassen, so dass Innovation entstehen kann.
Stefan Langenauer gratuliert BSI und der Schweizerischen Post, dass sie sich einen Codex gegeben haben und nun Träger des Data Fairness Labels sind.
Jean-Daniel Strub, ethix – Lab für Innovationstechnik, gibt uns in seinem Referat ethische Gedankenanstösse zum Mehrwert von KI auch in sensiblen Bereichen und erklärt, weshalb sich der Konsens etabliert hat, dass digitale Technologien ergänzend zu menschlicher Präsenz sinnvoll, ein vollständig ersetzender Einsatz jedoch zu vermeiden ist. Er erwähnt unter anderem folgende Punkte für einen verantwortungsvollen Umgang mit KI aus ethischer Sicht:
Differenzierter Blick auf Risiken und Chancen
Transparenz und Verständlichkeit («Black Box»-Problematik, Potenzielle Fehleranfälligkeit von KI, Lösungsansatz: «Human in the Loop» oder «Human on the Loop»)
Menschlichkeit und Empathie: Nicht nur «Ersatz» des Menschen, sondern v.a. Verlust an Kompetenzen und Fertigkeiten
Diskriminierung und Biases (Verzerrungen) in den Algorithmen (Achtsamkeit zwingend auf Qualität der Trainingsdaten, Erfordernis der Transparenz)
Normierung und Normalisierung
Zugang zur Technologie: Vermeiden von KI-Zwei-Klassen-Gesellschaft
Christof Bühler, Supercomputing Systems AG, zeigte uns eindrücklich anhand seines Fallbeispiels, warum der Güterzug im Gotthardtunnel trotz KI entgleiste. Zusammenfassend hält er fest: KI ist nicht intelligent… aber nützlich! Erfolgreiche KI-Projekte erfordern:
Klare Anwendungsfälle mit Zusatznutzen
Hochwertige & grosse Datenbestände
Ethische Freigabeverfahren
Einbezug der Stakeholder
und eine realistische Erwartungshaltung – es dauert nämlich oft länger als erwartet!
Christina Meyer, Die Schweizerische Post, erklärt, wie man dank Skills und Einbezug die Angst vor KI & Co. nimmt und so zu fairen Lösungen kommt. Sie erklärt, was die Post unternimmt, um die Akzeptanz und den kompetenten Umgang der Mitarbeitenden mit den neuen Technologien zu fördern:
Man muss sich Zeit nehmen, für Learnings & Initiativen
Man muss überhaupt wissen, dass diese Learnings existieren & wo ich man sie findet
Vorgesetzte müssen überzeugt sein und die Mitarbeitenden motivieren
Und was gestern galt, ist heute vielleicht schon wieder ein bisschen anders…
Chris Rusche, BSI, setzt sich mit dem Thema auseinander, warum KI im Kundendialog sinnvoll ist und weshalb Kundenkommunikation eine Chance und keine Bürde ist. Der Einsatz Künstlicher Intelligenz kann bei der Kommunikation mit dem Kunden einen deutlichen Mehrwert liefern und sogar die persönliche Interaktion aufwerten.
Dr. André Dinter, Digital Learning Hub Sek II, erläutert die Herausforderungen, vor denen die Schulen aufgrund des Einsatzes von KI stehen. Er stellt sich folgenden Fragen:
Wie kann ethisch verantwortliches Handeln in der Schule vermittelt werden?
Ist die vertiefte Auseinandersetzung mit Lerninhalten etwas Gestriges?
Ist interaktives Lernen mit Menschen im Klassenverband immer noch lernförderlich?
Müssen Leistungserhebungen mit oder ohne KI neu gedacht werden?
Klar ist: Die Disruption ist auf allen Ebenen angekommen: Analoges und Digitales wachsen zusammen.
Fazit aus Sicht der Referierenden: 🔑 Es braucht den Zugang zu KI auf allen Ebenen 🔑 Es braucht eine öffentliche Debatte, die sich mit ethischen Aspekten auseinandersetzt 🔑 KI soll (auch in Schulen) als Hilfsmittel zur Zielerreichung genutzt werden können 🔑 Anwender sollen wissen, wie KI eingesetzt und wie damit umgegangen werden kann 🔑 es wäre gut, wenn KI gesetzlich Open Source gemacht würde
Am ausverkauften Swiss Insights Talk zum Thema «#Insights generieren mit #AI: Möglichkeiten und Grenzen» haben wir gelernt, dass…
💡Migros dank eines komplexen Recommender Systems rund 2 Mio. personalisierte Recommends ausspielen kann, das Instandhalten eines solchen Systems aber anspruchsvoll ist 💡 Die Bodennutzung und -bedeckung mit Millionen von Stichprobenpunkten mithilfe von AI ausgewertet wird, was bei hoher Qualität eine grosse Zeitersparnis ist 💡 die automatisierte Klassifizierung offener Kommentare bei klassischen Marktforschungsstudien eine grosse Zeitersparnis ist. Dass sich aber nicht alle Themenbereiche für eine Automatisierung gleich gut eignen 💡 «Silicon Samples» für Pretests oder zur Stimuli-Generierung durchaus ihre Berechtigung haben, es für Hauptstudien aber sehr wohl kritische Punkte gibt.
Fazit 🔑 KI bildet eine Hilfe bei repetitiven Aufgaben 🔑 KI ist in der Praxis ressourcenintensiv 🔑 Der Mensch muss ein zentrales Element in diesem Prozess bleiben, um Fehlentwicklungen zu vermeiden.
Die Büchse der Pandora ist geöffnet. Digitalisierung & künstliche Intelligenz werden nicht verschwinden, sondern stärker werden! Stellt sich die Frage: Lernen wir schnell genug, um damit Lernen umzugehen?
Soviel sei gesagt: ChatGPT4 hat enorm viel Bewegung ins Thema gebracht. Wer noch nicht gehandelt hat, sollte sich dringend Gedanken über die firmeninterne Positionierung machen:
🔑 Unternehmenswerte beschreiben > Werte schaffen Vertrauen (und Erfolg) 🔑 Prozesse definieren > zwecks Schadenvermeidung, Fairness, Selbstbestimmung, Transparenz, Verantwortung und wegen des ethischen Diskurses 🔑 Unterstützung in der Community holen
Die Key Takeaways:
Minimize Data Collection & Retention: So viel wie nötig, so wenig wie möglich. Kluge Architektur reduziert Risiken & Kosten
Transparenz: Klare Kommunikation, Prozesse, Nachvollziehbar für die Masse > Label sind ein Weg.
Explizit Einverständnis einholen: Lass uns dir erklären wie wir deine Daten nutzen > Optionen bieten wie z.B. Easy Ride
Einhalten des Datenschutzes: sauberes Handwerk
Wie Karin Lange treffend sagt: It’s all about peole Wenn die Menschen im Unternehmen nicht sensibilisiert sind und ein Bewusstsein für die Risiken entwickeln, gibt es keine ethische Governance.
Die Verantwortung KANN NICHT (nur) bei einem kleinen Gremium liegen. Jeder einzelne Mitarbeitende in der Verantwortung, die Markenwerte des Unternehmens (und somit auch die datenethischen Prinzipien) zu leben und zu vertreten.
Die zweite Trendstudie des Forschungsinstitutes gfs.bern im Auftrag der SRG SSR zur Abstimmung vom 18. Juni 2023 ist erschienen.
Drei Ja-Mehrheiten
Wäre bereits am 27. Mai 2023 abgestimmt worden, wären alle drei auf eidgenössischer Ebene zur Abstimmung stehenden Vorlagen deutlich angenommen worden. Am klarsten gilt dies für die OECD/G20-Mindestbesteuerung, gefolgt vom Covid-19-Gesetz und dem Klima-Gesetz. Alle drei Vorlagen erfuhren im Verlauf der Hauptkampagnenphase eine Polarisierung Richtung Nein. Für Behördenvorlagen entspricht dies dem Ausnahmefall der Meinungsbildung.
Es ist bei einer 95-prozentigen Wahrscheinlichkeit ein statistischer Unsicherheitsbereich von rund ± 3 Prozentpunkten mitzudenken.
Das sind die Hauptergebnisse der zweiten Befragung zur Volksabstimmung vom 18. Juni 2023. Realisiert wird die Serie vom Forschungsinstitut gfs.bern für die Medien der SRG SSR.
Die zweite Trendstudie des Forschungsinstitutes gfs.bern im Auftrag der SRG SSR zur Abstimmungen vom 25. September 2022 ist erschienen.
Wäre bereits am 4. September 2022 abgestimmt worden, wären die beiden Vorlagen der AHV-Reform angenommen worden. Eine knappe Mehrheit hätte die Massentierhaltungsinitiative verworfen. Eine relative Mehrheit hätte das Verrechnungssteuergesetz angenommen.
Alle vier Vorlagen erfuhren im Verlauf der Hauptkampagnenphase eine Polarisierung Richtung Nein. Für die Initiativen ist dies gemeinhin typisch, für Behördenvorlagen entspricht dies jedoch dem Ausnahmefall der Meinungsbildung.
Die Stimmbeteiligung hätte stabil bei durchschnittlichen 44 Prozent gelegen.”
Es ist bei einer 95-prozentigen Wahrscheinlichkeit ein statistischer Unsicherheitsbereich von rund ± 3 Prozentpunkten mitzudenken.
Das sind die Hauptergebnisse der zweiten Befragung zur Volksabstimmung vom 25. September 2022. Realisiert wird die Serie vom Forschungsinstitut gfs.bern für die Medien der SRG SSR.
Die erste Trendstudie des Forschungsinstitutes gfs.bern im Auftrag der SRG SSR zur Abstimmungen vom 25. September 2022 ist erschienen.
Wäre bereits am 8. August 2022 abgestimmt worden, wären die Massentierhaltungsinitiative und die beiden Vorlagen der AHV-Reform angenommen worden. Das Verrechnungssteuergesetz hätte lediglich relativmehrheitliche Zustimmung erfahren. Die Stimmbeteiligung hätte bei leicht unterdurchschnittlichen 45 Prozent gelegen.
Es ist bei einer 95-prozentigen Wahrscheinlichkeit ein statistischer Unsicherheitsbereich von rund ± 3 Prozentpunkten mitzudenken.
Das sind die Hauptergebnisse der ersten Befragung zur Volksabstimmung vom 25. September 2022. Realisiert wird die Serie vom Forschungsinstitut gfs.bern für die Medien der SRG SSR.