Ethik-Empfehlungen für Big Data im Versicherungswesen

Der zusammenfassende Bericht, der die Resultate aus dem NFP75-Projekt umreisst, ist erhältlich.

Seit Anbeginn des Versicherungswesens waren und sind genaue und relevante Daten für die risikobasierte Berechnung entscheidend. Versicherungsgesellschaften zeigen daher grosses Interesse an den schnell wachsenden Möglichkeiten, multidimensionale Daten aus allen Lebensbereichen zu generieren, darauf zuzugreifen und auszutauschen. Big Data beeinflusst die Wechselbeziehung zwischen Solidarität und Risikogerechtigkeit auf vielfältige Weise. Die Stärke der Personalisierung, die durch Big-Data-Anwendungen geboten werden, kann das Risiko von Diskriminierung mit sich bringen und Werte wie Privatsphäre, Fairness oder Solidarität gefährden. Die gleichen Anwendungen können aber auch eingesetzt werden, um individuellen und gesellschaftlichen Schäden zu vermeiden, und so nicht nur die Rentabilität der Branche, sondern auch das Gemeinwohl steigern.

Ein zusammenfassender Bericht enthält die Ergebnisse des Forschungsprojekts «Big Data im Versicherungswesen im Spannungsfeld von Personalisierung und Solidarität» in verdichteter Form. Im Zeitraum von 30 Monaten untersuchte ein interdisziplinäres Forscherteam der Universität Zürich und der Fachhochschule Graubünden – in Zusammenarbeit mit Experten der Swiss Re – die ethischen, rechtlichen und gesellschaftlichen Aspekte der Nutzung von Big Data bei Privatversicherungen. Basierend auf den Ergebnissen formulierte das Team Empfehlungen, die direkt aus der Forschung hervorgehen.

Haupterkenntnisse – Analyse der Medien

Die Studie liefert eine systematische Analyse von Frames (interpretierende Muster), die in der Debatte über Big Data vorhanden sind. Sie basiert auf einer quantitativen Inhaltsanalyse von Artikeln in Schweizer (N=251) und US-amerikanischen Zeitungen (N=258), die zwischen 2011 und 2018 veröffentlicht wurden. Insgesamt wurden fünf dominierende Frames identifiziert. Einer fokussiert auf die kritischen Aspekte von Big Data (Missbrauch von Daten), während die anderen vier die positiven Aspekte betonen (Fortschritte in Forschung, Medizin und Geschäftsmodellen, Produktinnovation, Prozessverbesserung, Marketingoptimierung). Im Vergleich zu den USA wird das kritische Element in der Schweiz etwas stärker betont und die Spitzenintensität der Debatte liegt später. Dies deutet darauf hin, dass der öffentliche Diskurs über Big Data eher opportunitätsorientiert ist, die Risiken der Anwendungen aber dennoch berücksichtigt werden.

Weiterführende Literatur:

Haupterkenntnisse – Analyse der Gesetzeslage

Die Analyse des Schweizer Rechts zeigt, dass das Versicherungsgesetz die Personalisierung von privaten Versicherungsabschlüssen nicht beschränkt. Auch der Personalisierungsspielraum wird durch das Antidiskriminierungsrecht kaum eingeschränkt, zumindest solange die einzelnen Angebote auf einer korrekten Risikobewertung basieren. Die rechtsvergleichende Analyse konzentrierte sich auf Versicherungs-, Antidiskriminierungs- und Datenschutzgesetze in der Schweiz und den USA/Kalifornien, da sich die beiden Rechtsräume in Bezug auf den Regulierungsansatz stark unterscheiden. Während das private Versicherungsrecht in der Schweiz vom Grundsatz der Vertragsfreiheit dominiert wird, ist dieser Versicherungszweig in Kalifornien stark reguliert und die Tarife bedürfen der vorherigen Genehmigung durch den California Insurance Commissioner. Zudem legt das US-Recht viel mehr Wert auf Antidiskriminierung, während das Datenschutzrecht in der Schweiz umfassender und restriktiver ist. Damit ist der Personalisierungsspielraum in der Schweiz viel grösser als in den USA/Kalifornien – aber nur, wenn die datenschutzrechtlichen Anforderungen erfüllt werden. Das Datenschutzrecht soll jedoch primär die Privatsphäre schützen und dem Einzelnen ein angemessenes Mass an Kontrolle über die Erhebung und Verwendung seiner personenbezogenen Daten geben. Dies deutet darauf hin, dass das Datenschutzrecht nicht der geeignete Rechtsbestand ist, um zu bestimmen, ob und inwieweit Versicherungsgesellschaften die Möglichkeit haben sollten, ihre Angebote zu personalisieren.

Aus diesem Grund bedarf es eines öffentlichen Dialogs, um festzustellen, welche Arten von Versicherungen vom Solidaritätsprinzip dominiert werden sollen (z.B. obligatorische Krankenversicherung) und in welchen Bereichen die Personalisierung von Versicherungsverträgen erlaubt sein soll (z.B. Haushalts- und Autoversicherung). Ein solcher Dialog könnte von der Versicherungswirtschaft initiiert und moderiert werden und wichtige Erkenntnisse liefern, auf die sich die Regulierungsbehörde bei ihren zukünftigen regulatorischen Entscheidungen stützen könnte.

Weiterführende Literatur:

Haupterkenntnisse – Ethikforschung

Die Ethik-Debatte verlagert sich weg vom Thema des Schutzes der Privatsphäre beim Sammeln von Big Data im Versicherungswesen (und anderswo) hin zur Verwendung solcher Daten im maschinellen Lernen für prädiktive Analysen, zur Quantifizierung von Risiken und zur Identifizierung von Zahlungsbereitschaft oder Betrugserkennung. Es besteht ein zunehmender Konsens darüber, dass die Unterscheidung zwischen direkter und indirekter Diskriminierung immer weniger ausgeprägt und schwer zu definieren ist. Die Personalisierung verlagert die Aufmerksamkeit sowohl des Kunden als auch der Regulierungsbehörde weg von der sozial orientierten Gruppenzugehörigkeit, z.B. Geschlecht oder Rasse. Entscheidungen werden zunehmend auf der Grundlage von prädiktiven Merkmalen getroffen, die nicht relevant bezüglich dieser Gruppen sind, z.B. der Messung des Fahrstils oder Lifestyle-Entscheidungen wie dem Beitritt zu einem Fitnessstudio. Dies macht die Risikobewertung aus der Sicht der Diskriminierung weniger problematisch, wie sie traditionell verstanden wird. Gleichzeitig korrelieren diese Merkmale (z.B. Fitnessstudiogebrauch) oft signifikant mit der Zugehörigkeit zu gesellschaftlich relevanten Gruppen – und diese Korrelationen können vergangene oder aktuelle diskriminierende Praktiken widerspiegeln. Allerdings ist es oft nicht möglich, indirekte Diskriminierung zu beseitigen, ohne die Genauigkeit der mit Big Data gemachten Vorhersagen zu beeinträchtigen.

Da die Genauigkeit der Risikobewertung, der Betrugserkennung und der Zahlungsbereitschaft eine wichtige Rolle bei der Feststellung der wirtschaftlichen Nachhaltigkeit von Unternehmen spielt, kann es ethische Gründe geben, Big-Data-Methoden trotz ihrer indirekten Diskriminierung zu akzeptieren. Deshalb zieht die Einführung von Entscheidungen, die auf «fairen» Vorhersagen beruhen, Zielkonflikte zwischen unterschiedlichen Fairness-Intuitionen und anderen relevanten ethischen Werten nach sich. Dies deutet darauf hin, dass Bezugssysteme für "Fairness by Design" erforderlich sein können, um Reputationsrisiken beim Einsatz von maschinellem Lernen im Versicherungswesen zu verringern.

Weiterführende Literatur:

Haupterkenntnisse – empirische Umfrageforschung

Die Umfrage umfasste Antworten aus der Schweiz (NDeutsch=764, NFranzösisch=317) und den USA (NUSA=1083). Drei Erkenntnisse sind bemerkenswert:

Erstens hängt die Bereitschaft zum Informationsaustausch von der Art der Informationen und dem Vertrauen in Institutionen (z.B. Versicherungsgesellschaften) und Internetunternehmen ab. Es wurden zwei Hauptmuster gefunden: Personen, die der "alten Wirtschaft" vertrauen (Versicherungen, Medien, Regierungen usw.), geben eher Sachdaten (Name, Alter usw.) an andere weiter, während Personen, die der "neuen Wirtschaft" vertrauen (Internetunternehmen) eher emotionale Daten (Fotos, Kommentare, Meinungen usw.) austauschen. Dies deutet darauf hin, dass Einzelpersonen bei den von ihnen geteilten Informationen selektiv sind und dass sie eher sensible Informationen weitergeben, wenn sie den Unternehmen vertrauen, die Big-Data-Anwendungen anbieten.

Zweitens zeigen Menschen Zurückhaltung gegenüber der Datennutzung in Versicherungsprodukten, sobald die Daten in keinem Zusammenhang mit dem Versicherungsobjekt zu stehen scheinen; diese Zurückhaltung ist höher, wenn die Werte Fairness, Privatsphäre und Solidarität "geschützt" sind. Dies deutet darauf hin, dass der Kunde eine plausible Beziehung zwischen den in einem Produkt zu verwendenden Daten und dem Versicherungsziel des Produkts erwartet.

Drittens sind bei der Befragung von Fachleuten aufgrund der geringen Anzahl von Antworten (N=23) nur vorläufige Ergebnisse möglich. Expertinnen und Experten werden im Durchschnitt monatlich mit ethischen und rechtlichen Fragen im Zusammenhang mit Big Data konfrontiert. Ethik-Know-how ist in der Regel vorhanden, aber in Unternehmen fehlen meist Richtlinien. Dies deutet auf eine mögliche Lücke zwischen der Bereitschaft, sich mit ethischen Fragen zu befassen, und der Verfügbarkeit von Instrumenten für eine effektive Umsetzung hin.

Weiterführende Literatur:

  • Tanner C, Christen M, et al. (in preparation): Clients’ perceptions and responses to threats to ethical values through Big Data. Forschungsteam kontaktieren für Manuskript.
  • Loi, M, Christen, M, Tanner C (in preparation): Philosophical implications for trust and value perceptions in insurance. Forschungsteam kontaktieren für Manuskript.
  • Sharon A, Hauser C et al. (in preparation): Information sharing behaviour on social networks: Which role does trust play? Forschungsteam kontaktieren für Manuskript.
  • Dahinden, U, Tanner, C, et al. (in preparation): The relationship between client’s values and trust. Forschungsteam kontaktieren für Manuskript.

Empfehlungen

  • Die Frage, ob, unter welchen Bedingungen und in welchem Umfang es Versicherungsgesellschaften erlaubt sein sollte, ihre Verträge auf der Grundlage von Big Data Analytics zu personalisieren, sollte nicht indirekt gelöst werden, indem allgemeine Grundsätze des Datenschutzes und des Antidiskriminierungsrechts angewendet werden.
  • Die Schweizer Behörden sollten die Verwendung von Big Data für die Personalisierung von Versicherungsverträgen kontinuierlich überwachen, unerwünschte Formen der Personalisierung identifizieren und bei Bedarf spezifische versicherungsrechtliche Bestimmungen schaffen, um entweder die Personalisierung zu verbieten oder die Bedingungen und den Umfang der zulässigen Personalisierung zu definieren.
  • Versicherungsgesellschaften sollten die Verwendung von Datenquellen vermeiden, die nicht mit dem versicherten Risiko zusammenhängen, da dies das Vertrauen der Kundinnen und Kunden in die Produkte und Dienstleistungen der Branche untergraben kann.
  • Versicherungsgesellschaften sollten ihren Kundinnen und Kunden aufzeigen, wie sie Kernwerte wie Privatsphäre, Fairness oder Solidarität vor den Risiken von Big Data Analytics schützen.
  • Versicherungsgesellschaften sollten ihr Bewusstsein für die Art und Weise und die Auswirkungen unerwünschter diskriminierender Nutzung von maschinellem Lernen basierend auf Big Data bei der Vorhersage, Preisgestaltung und Betrugserkennung stärken.
  • Versicherungsgesellschaften sollten ihre allgemeinen geschäftsethischen Grundsätze anpassen, um den Rechenschaftspflichten für einen systematischen Umgang mit ethischen Fragen nachzukommen, die sich aus der Digitalisierung der Branche ergeben.