KI-Regulierung in China – Vorbild für den Westen?

In China wird zunächst ausprobiert, innoviert und entwickelt und später erst reguliert. Diese Vorgehensweise war im vergangenen Jahr auch bei der Regulierung der Tech-Unternehmen zu beobachten. Nachdem die chinesischen Digitalunternehmen in den letzten Jahren recht frei wachsen und sich entfalten konnten, wurden sie dem Staat nach und nach zu mächtig, was zu umfassenden Regulierungen geführt hat.

Besonders betroffen waren Didi Chuxing mit einem daraus resultierenden Delisting von der US-Börse, aber auch Tech-Giganten wie Alibaba, Meituan und Pinduoduo, die hohe Bussgelder bezahlen mussten. Ausserdem griff die Regierung stark in den Bereich E-Commerce ein. So erhielt Chinas Livestreaming-Queen Viya eine Geldstrafe von über 200 Millionen US-Dollar wegen Steuerhinterziehung.

Auf der einen Seite verfolgte die chinesische Regierung das Ziel, mehr Kontrolle zu erlangen und die Macht der immer einflussreicheren privaten Unternehmen einzuschränken. Westliche Medien berichteten vor allem negativ über die Tech-Regulierungen. Dabei übersahen sie, dass damit auch tatsächlich wettbewerbswidrige Praktiken und illegale Informationsveröffentlichungen unterbunden werden sollten.

So waren bis vor Kurzem auf vielen chinesischen Plattformen Links und Bezahlmethoden anderer Anbieter nicht zugelassen. WeChat enthielt beispielsweise keine Links zum Alibaba-Ökosystem und Tmall liess die Bezahlung mit WeChat Pay nicht zu. Ausserdem gab es in den sozialen Medien viele Skandale um den Missbrauch und die illegale Veröffentlichung von Nutzerdaten. Teil der Regulierung waren Richtlinien, die in der Vergangenheit gefehlt hatten.

Gibt es in China einen Datenschutz?

Oft wird im sogenannten Westen angenommen, dass es in China keinen Datenschutz gibt. Die Wahrheit ist aber, dass Daten in China anders geschützt werden als im Westen. In der kollektivistischen chinesischen Gesellschaft ist das Gemeinwohl wichtiger als das Individuum und eine vertrauenswürdige Gesellschaft ist bedeutender als die Privatsphäre des Einzelnen. Das führt dazu, dass sich die chinesische Bevölkerung bisher wenig Gedanken darüber machte, wer ihre Daten sammelt und wozu. Das war eine gute Grundlage für die schnelle Entwicklung der Digitalisierung und vor allem der Künstlichen Intelligenz in China.

In den letzten Jahren konnten die chinesischen Bürger:innen allerdings immer öfter beobachten, wie Unternehmen ihre personenbezogenen Daten sammelten und ausnutzten. Sie reagierten mit zahlreichen Klagen gegen Firmen und Plattformen wegen Datenmissbrauchs. Dies hatte zur Folge, dass der chinesische Staat neue Gesetze zur Erhöhung der Datensicherheit und zum Schutz persönlicher Daten erliess. Seit 2021 gibt es in China beispielsweise ein Zivilgesetzbuch, das unter anderem die Nutzung persönlicher Daten regelt. Auch Gesetze wie das Data Security Law oder das Personal Information Protection Law sind Folgen des gestiegenen Bewusstseins für Datenschutz.

Das führt dazu, dass sich der chinesische Datenschutz zunehmend der DSGVO annähert. Privatsphäre wird allerdings nach wie vor nicht als ein persönliches Recht, sondern als Staatsgut angesehen. Persönliche Daten sind somit vor Privatunternehmen und anderen Staaten geschützt, sie stehen der chinesischen Regierung aber weiterhin zur Verfügung.

Um dem Datenmissbrauch durch private Tech-Unternehmen vorzubeugen, räumte die Regierung im vergangenen Jahr wie bereits erwähnt in Chinas Tech-Szene auf und verschärfte die Regulierung. Das hatte beispielsweise zur Folge, dass die neueste Version der Messaging-App WeChat eine Liste in den Einstellungen enthält, in der die gesammelten Daten (einschliesslich der Kontakte und des Standorts) der Nutzer:innen aufgeführt sind, damit diese einen besseren Überblick darüber erhalten, welche Informationen über sie der Plattform zur Verfügung stehen. Damit will WeChat-Betreiber Tencent die neuen, strengen Anforderungen an den Datenschutz erfüllen.

Im Jahr 2022 werden vermutlich weitere grosse chinesische Technologieunternehmen Umstrukturierungen vornehmen, um Bereiche mit sensiblen Daten auszugliedern und damit den neuen Regeln besser zu entsprechen. Betroffen könnten E-Commerce-Riesen wie Pinduoduo, Ride-Hailing-Apps und möglicherweise sogar Elektroauto-Unternehmen wie NIO oder Xpeng sein. Der regulatorische Druck wird noch zunehmen, da China eine harte Linie in Bezug auf die Datenhoheit und den Einsatz von Algorithmen verfolgt.

Die Regulierung von Algorithmen seit dem 1. März 2022

Seit dem 1. März 2022 ist es Unternehmen in China untersagt, personenbezogene Daten zu verwenden, um Nutzer:innen unterschiedliche Preise für ein Produkt oder eine Dienstleistung anzubieten. In der Vergangenheit kam es beispielsweise immer wieder vor, dass in Ride-Hailing-Apps wie Didi Chuxing die Preise für die Kund:innen aufgrund der vorherigen Fahrten oder des Smartphone-Modells des Nutzers variierten. Diese Diskriminierung soll nun durch eine Regulierung jener Algorithmen verhindert werden, die Inhalte filtern, Suchergebnisse steuern, Preise festlegen oder Videos empfehlen.

Unternehmen müssen in Folge dessen die Nutzer:innen nun darüber benachrichtigen, wenn sie auf ihren Plattformen Algorithmen verwenden, um Empfehlungen abzugeben. Ausserdem sollen die User:innen eine Opt-Out-Möglichkeit erhalten und sich gegen die Nutzung von personenbezogenen Daten in Empfehlungsalgorithmen entscheiden können. Die Option, solche Empfehlungen abzulehnen, wird derzeit insbesondere in den Bereichen Ride-Hailing, E-Commerce, Social Media und Streaming eingesetzt.

Unternehmen sollen in ihren Apps die Nutzer:innen auch nicht zur Sucht oder zu übermässigem Konsum verleiten. So führen Tech-Giganten wie ByteDance (Betreiber von Tiktok und anderen KI-basierten Plattformen) beispielsweise neue Funktionen ein, um mit den Regulierungen konform zu sein. Auf Douyin (chinesische Version von Tiktok) bekommen die User:innen seit Kurzem 5 Sekunden lange Videos zu sehen, wenn sie zu viel Zeit in der App verbracht haben. Diese Kurz-Videos fordern sie auf, sich abzumelden, um nicht süchtig nach den algorithmisch kuratierten Feeds zu werden.

Zum einen sind diese Regulierungen eine Top-Down-Eindämmung der Macht der grossen Tech-Plattformen durch die chinesische Regierung. Die Einschränkung von Empfehlungsalgorithmen ermöglicht es zudem, die Verbreitung von Inhalten in den sozialen Medien besser zu kontrollieren. Zum anderen können die Regulierungen aber auch als Bottom-Up-Aufrufe aus der Bevölkerung angesehen werden, denn die chinesischen Bürger:innen verlangen zunehmend nach mehr Kontrolle über ihre persönlichen Daten und sie wollen wissen, wie die Tech-Unternehmen diese einsetzen und weiterverwenden.

Doch diese neuen Regulierungen von Algorithmen beinhalten auch erhebliche technische Herausforderungen. In der Theorie sind die vorgesehenen Einschränkungen sehr umfassend und weitreichend. Wie kann aber das Verhalten eines Algorithmus, das mit neuem Input ständig dazulernt, genau überwacht werden? Und wie kann sichergestellt werden, dass Algorithmen nach Ansicht der Behörden richtig eingesetzt werden? Es ist noch nicht abzusehen, wie diese Regulierungen in der Praxis genau umgesetzt werden.

China als Vorbild für westliche Länder?

Eine weitere Frage bleibt offen: Facebook, Google und Co. werden in der westlichen Digitallandschaft immer mächtiger und stehen oft im Verdacht, sich wettbewerbswidrig zu verhalten, Desinformation zu betreiben und Daten zu missbrauchen. Inwieweit kann die chinesische Regulierung als Modell und Vorbild für westliche Länder dienen?

Auch die EU versucht seit mehreren Jahren, die Macht und den Einfluss der Tech-Unternehmen einzuschränken. Doch sie stösst damit oft an ihre Grenzen, denn es ist nicht einfach, die richtigen Massnahmen und ein passendes Regelwerk zu finden. Es gibt viele Diskussionen und Entwürfe, die Schwierigkeit liegt aber vor allem in der Verabschiedung der Verordnungen. Oft dauert es mehrere Jahre, bis theoretische Diskussionen zur tatsächlichen Implementierung von handfesten Regulierungen führen. Dazu kommen rechtliche Herausforderungen und die Abwehr durch die Tech-Giganten. China hingegen führt solche Änderungen sehr schnell ein. Die Regulierung von Algorithmen wurde im Herbst 2021 das erste Mal öffentlich diskutiert. Innerhalb weniger Monate arbeiteten die Zuständigen die Regeln aus, die am 1. März 2022 bereits in Kraft getreten sind.

Vielleicht kann in Zukunft genau dieser «China Speed» und die Regulierung von KI und Algorithmen in China als Inspiration und Vorbild für westliche Länder dienen. Wenn solche Richtlinien in jenem grossen Ausmass in China funktionieren, werden sie vielleicht auch für andere Länder adaptierbar sein. Das chinesische Modell wird aufgrund des Misstrauens gegenüber gewissen chinesischen Technologien wahrscheinlich nicht direkt akzeptiert werden. Es ist aber möglich, dass es beispielsweise europäischen Gesetzgebern als Inspiration dient. Denn obwohl das Modell nicht eins zu eins übernommen werden wird, kann die Entwicklung in China auf jeden Fall erste Impulse für westliche Lösungen liefern.

Alexandra Stefanov
Sinologin und Gründerin von China Impulse

info@china-impulse.de | www.china-impulse.de

Die Autorin
Alexandra Stefanov hat Sinologie und Transkulturelle Studien in Heidelberg (DE), Tianjin (CN) und Shanghai (CN) studiert. Sie ist Gründerin von China Impulse, Co-Autorin des Buchs «Digitalisierung Made in China – Wie China mit KI und Co. Wirtschaft, Handel und Marketing transformiert», Co-Herausgeberin des Magazins «China im Blickpunkt» und Host des Podcasts «China Impulse – Zukunftstrends aus dem Reich der Mitte». Mit China Impulse macht Alexandra Stefanov Unternehmen fit für die Zukunft, indem sie ihnen die neusten Digitalisierungstrends aus China präsentiert und digitale Best Practices an die Hand gibt. Im Rahmen von Vorträgen, Workshops, Beratungen, Podcast-Interviews und einem monatlichen Tech-Newsflash gibt sie Einblicke in die chinesische Digitalwelt und zeigt auf, was wir in Europa daraus für unsere eigene Digitalisierung lernen können.

Download Artikel
Swiss Insights News #05

Alle SWISS INSIGHTS News finden Sie hier: SWISS INSIGHTS NEWS

KI-Chatbots und Ethik – Geht das zusammen?

Digitale Technologien wie die künstliche Intelligenz (KI) setzen sich zunehmend durch. Es gibt unterschiedliche Ansichten darüber, was KI leisten kann und was nicht. Problematisch ist, dass es keine Anforderungen an die Transparenz der KI gibt, ja nicht einmal klar ist, was genau mit KI gemeint ist.

Das Herzstück der heutigen KI sind die Daten, mit denen sie gefüttert wird. Doch im Gegensatz zu Öl, mit dem sie oft verglichen werden, sind diese Daten lebendig, weil sie auch von uns Menschen produziert werden. Sind die Daten unvollständig, veraltet oder gar falsch, lernt die KI auf falschen Annahmen, was letztlich zu unbefriedigenden Leistungen und Unmut bei den Nutzern führt.

Darüber hinaus können Datensätze bestimmte Verzerrungen, Vorurteile und Voreingenommenheiten enthalten, die zu Diskriminierung führen, insbesondere bei Entscheidungen, die auf personenbezogenen Daten basieren.

Hubert Österle hat die Disziplin des Life Engineering entwickelt, um genau solchen Gefahren oder Problemen entgegenwirken zu können. Er berücksichtigt dabei auch ethische Aspekte der KI-Entwicklung und -Nutzung. Laut Österle H. (Österle H. , 2020) besteht die Aufgabe des Life Engineering darin, Regeln für digitale Systeme zu entwickeln, die auf das menschliche Wohlbefinden ausgerichtet sind. Life Engineering ist eine Weiterentwicklung des Business Engineering, jedoch mit einem anderen Fokus: statt auf dem Unternehmen (Gewinnorientierung) liegt der auf der Gesellschaft (Lebensqualität). Mit dem Fokus auf «Human» wird beim Life Engineering nicht die Gesellschaft als Einheit, sondern der einzelne Mensch als zentraler Punkt der Betrachtung gesehen.

Bessere KI-Chatbots dank dem Turing-Test?

Beeinflusst durch die technologischen und wissenschaftlichen Fortschritte in der KI sowie durch die wachsende Akzeptanz nicht-menschlicher Kommunikationspartner hat in letzter Zeit die Zahl der Unternehmen zugenommen, welche Chatbots oder Conversational Agents (CAs) zur Automatisierung ihrer Kundenkontaktpunkte einsetzen. Man kann eigentlich schon sagen, dass KI-basierte CAs wie Amazons Alexa oder Apples Siri zu einer wichtigen Serviceschnittstelle zwischen Anbietern und Nutzern geworden sind.

Zunächst sieht es so aus, als ob diese Digitalen Assistenten dazu entwickelt werden, ihre Nutzer im Alltag als intelligente persönliche Assistenten zu unterstützen. Die Chatbots simulieren dabei die menschliche Kommunikation und können im Vergleich zu anderen Software-Lösungen menschliche Eigenschaften besser annehmen.

Um zu testen, ob ein Conversational Agent so gut ist wie ein menschlicher Gesprächspartner, können Unternehmen den bereits existierenden Turing-Test anwenden. Dieser 1950 von Alan Turing entwickelte Test beschreibt eine Möglichkeit, die Intelligenz von Maschinen zu testen. Beim Turing-Test unterhält sich ein menschlicher Fragesteller mit zwei bis drei anderen Gesprächspartnern. Die Konversation findet ausschliesslich per Chat statt. Das Interessante an dem Gespräch ist, dass einer der Gesprächspartner eine Maschine ist und die anderen ein oder zwei echte Menschen.

Der Fragesteller weiss nicht, hinter welchem Gesprächspartner sich die Maschine verbirgt. Der Interviewer hat die Aufgabe, mindestens zehn Minuten lang intensiv Fragen zu stellen. Am Ende muss er entscheiden, welcher seiner Gesprächspartner ein Mensch und welcher eine Maschine ist.

Wenn der Fragesteller nicht eindeutig herausfindet, wer eine Maschine ist, hat der Chatbot oder die Maschine den Turing-Test bestanden. Allerdings werden beim Turing Test keinerlei ethische Aspekte berücksichtigt. Es geht nicht darum, ob sich ein Conversational Agent für den User ethisch korrekt verhält, sondern nur, wie nah sein Verhalten dem eines durchschnittlichen menschlichen Gesprächspartners kommt.

Der Ethik-Check für Bots

In einem interdisziplinären Projekt möchten wir nun die Ideen des Life Engineerings und den daraus resultierenden Ideen zur Entwicklung ethischer Systeme mit denen des Turing-Tests kombinieren. Das Ziel ist ein Ethik-Check für Chatbots.

Inspiriert vom Turing-Test, der herausfinden soll, wie menschenähnlich sich eine KI verhält, wollen wir ethisch korrekte Bots identifizieren und denjenigen, die es noch nicht sind, Hinweise zur Optimierung geben. Um ethisch korrekte Bots als solche zu definieren, müssen wir zunächst festlegen, was ethisch korrekt in unserer Sprache und Kultur bedeutet. Und wir müssen berücksichtigen, dass sich diese Werte im Laufe der Zeit ändern können.

Anschliessend müssen wir Verfahren definieren, wie die zuvor entwickelten ethischen Kriterien gemessen werden können. Darauf folgt eine Bewertung, der sich jeder Bot unterziehen kann, um eine Einschätzung des Zustands seiner ethischen Korrektheit einschliesslich eines eventuellen Verbesserungspotenzials zu erhalten. Die Bewertung wird zunächst von Menschen durchgeführt, es ist aber denkbar, dass in Zukunft auch Bots in der Lage sein werden, die Bewertung vornehmen.

Der Ethik-Check für Conversational Agents ist in zweifacher Hinsicht neu. Zum einen gibt es weder in der Forschung noch in der Praxis anerkannte und weit verbreitete Richtlinien für Chatbot-Projekte. Zum anderen gibt es, abgesehen vom Turing-Test, keine Benchmarks oder andere Tests, die Conversational Agents bewerten und gleichzeitig Optimierungsmöglichkeiten aufzeigen. Unser Projekt kombiniert beide
Aspekte in einer Anwendung.

Im Gegensatz zum Turing-Test, bei dem ein Mensch mit einer Conversational AI chattet, soll unser Ethik-Check am Ende direkt von einem Chatbot durchgeführt werden. Der Chatbot verfügt dann über die definierten Ethik-regeln, weiss, welche Fragen er stellen muss und kann die Antworten des zu testenden Chatbots mit den von uns definierten Benchmarks abgleichen und bewerten. Das Ergebnis ist ein vollautomatischer Ethik-Check, der zudem transparent ist, da er genau aufzeigt, welche Kriterien in welchem Umfang in den Entscheidungsprozess eingeflossen sind.

Bevor eine Ethikprüfung stattfinden kann, muss definiert werden, was ethisch korrekt bedeutet. Ethik ist nicht universell. Ethik ist etwas, das sich ständig weiterentwickelt und stark von der Kultur geprägt ist.

Wir definieren daher zuerst ethische Standards für eine spezifische Region. Als erste haben wir den deutschsprachigen Raum ausgewählt. Wir nennen diese Region Smart Region, da wir unsere Standards auf der Grundlage der Ideen von Smart Cities entwickeln wollen. Diese beziehen die Bürgerinnen und Bürger typischerweise in den Prozess der Ideenfindung und Entwicklung ein.

Mit Hilfe der verschiedenen Forschungsmethoden Literaturrecherche, Umfragen, Experteninterviews und Fokusgruppen werden wir ethische Standards für Chat- und Voicebots entwickeln und erste Ansätze präsentieren, wie diese gemessen werden können.

Für die Fokusgruppen werden Experten aus verschiedenen Disziplinen ausgewählt. Im Mittelpunkt stehen Psychologie, Datenschutz, Informatik, Digitalisierung, Bildung, Data Science, Marketing, Wirtschaft. Um sich ändernden ethischen Werten gerecht zu werden, integrieren wir einen Mechanismus zur kontinuierlichen Anpassung an die aktuell geltenden Normen.

In weiteren Iterationen können konkrete Methoden oder Fragen entwickelt werden, um herauszufinden, wie ethisch korrekt sich ein Bot verhält. Anbieter, meist Unternehmen, die Bots für ihre Kunden und Mitarbeiter einsetzen, erhalten zudem Anregungen, wie sie ihre Bots ethisch korrekter reagieren lassen können.

An diesem Punkt haben wir wahrscheinlich eine weitere Herausforderung, nämlich dass viele KI-Projekte auf spezifische Anwendungsfälle ausgerichtet sind. Wir müssen es also schaffen, die ethische Korrektheit trotz dieser Einschränkungen zu messen, und möglicherweise Regeln dafür definieren.

In der ersten Phase wird die ethische Prüfung von Menschen durchgeführt. Die Menschen chatten mit dem Bot, stellen die relevanten Fragen, notieren die Antworten und bewerten diese anhand eines zuvor festgelegten Bewertungsrasters. In weiteren Phasen soll das Chatten und die Ethikprüfung von einem Chatbot übernommen werden, sodass langfristig die gesamte Ethikprüfung voll automatisiert werden kann.

Sobald eine KI einen anderen Bot bewerten muss, werden wir auf die Ansätze der Fuzzy-Logik und des Computing With Words (CWW) zurückgreifen. Fuzzy-Systeme können mit unscharfen Daten umgehen und sind daher sehr gut geeignet, wenn es darum geht, die Äusserungen von Menschen oder Bots zu charakterisieren oder ihre ethische Reife zu testen.

Forscher, die Fuzziness anwenden, ordnen Wörter nicht nur in Kategorien ein, sondern berücksichtigen auch ihre Position innerhalb der Kategorie.

Darüber hinaus ist Computing With Words ein auf der Fuzzy-Logik basierendes Rechensystem, in dem die Objekte der Berechnung vor allem Wörter, Sätze und Propositionen aus einer natürlichen Sprache sind, wie wir sie in unseren Chat-Gesprächen verwenden.

Entwicklungsstand des Ethik-Checks

Auf Basis einer ersten Literaturrecherche haben wir erste Design-Richtlinien für ethische Prinzipien definiert. Nun geht es darum, das Feedback unserer definierten Smart Region zu bekommen und dazu wurde unser so genannter Evaluation Bot entwickelt. Dieser Bot stellt alle von uns gefundenen Design-Prinzipien vor und fragt die Nutzer nach ihrer Einschätzung zur ethischen Wichtigkeit der jeweiligen Prinzipien.

Da die Evaluation immer noch läuft, freuen wir uns natürlich über alle User, die sich fünf bis zehn Minuten Zeit nehmen und ihr Feedback unserem Evaluation Bot mitteilen. Der Bot kann hier besucht werden: https://eggheads.ai/chat/2738

Sophie Hundertmark

Doktorandin Institut für Finanzdienstleistungen Zug (IFZ)
selbstständige Chatbot-Beraterin Zürich

+41 78 900 5346, sophie@hundertmark.ch

Die Autorin
Sophie Hundertmark gehört zu den ersten Master-Studentinnen in der Schweiz, die zu Chatbots geforscht haben. Seitdem arbeitet sie als selbständige Chatbot Beraterin und ist zudem wissenschaftliche Mitarbeiterin an der Hochschule Luzern. Anfang 2020 hat sie ihren eignen Chatbot Podcast gestartet, unter welchem alle zwei Wochen eine neue Folge herauskommt. Ende 2020 ist ihr erstes Buch erschienen «Digitale Freunde», ein praxisnahes Sachbuch über Chatbots. Seit 2021 ist Sophie Doktorandin an der Universität Fribourg und forscht und publiziert regelmässig zu Conversational Agents und Ethics.

Download Artikel
Swiss Insights News #04

Alle SWISS INSIGHTS News finden Sie hier: SWISS INSIGHTS NEWS