Recommandations éthiques pour le Big Data dans les assurances

Le rapport de synthèse, qui présente les résultats du projet PNR75, est disponible.

Depuis les débuts des activités d’assurance, des données précises et pertinentes ont été et sont toujours cruciales pour calculer les risques lors de l’établissement des primes d’assurance. Les compagnies d'assurances manifestent donc un grand intérêt pour les possibilités en rapide expansion de générer, d'accéder et d'échanger des données multidimensionnelles de tous les domaines de la vie. Le Big Data influence l'interaction entre la solidarité et la conformité au risque de multiples façons. La force de la personnalisation offerte par les applications Big Data peut augmenter les risques de discrimination et mettre en péril des valeurs telles que la vie privée, l'équité ou la solidarité. Toutefois, les mêmes applications peuvent également être utilisées pour prévenir les préjudices individuels et sociétaux, ce qui accroît non seulement la rentabilité de la branche mais également aussi le bien-être général.

Un rapport de synthèse contient les résultats du projet de recherche «Big Data dans les assurances: entre personnalisation et solidarité» sous forme condensée. Pendant 30 mois, une équipe de recherche interdisciplinaire de l'Université de Zurich et de la Haute école spécialisée des Grisons – en collaboration avec des experts de Swiss Re – a étudié les aspects éthiques, juridiques et sociétaux de l'utilisation du Big Data dans les assurances privées. Sur base des résultats, l'équipe a formulé des recommandations découlant directement de la recherche.

Principaux enseignements – Analyse des médias

L'étude fournit une analyse systématique des «frames» (schémas d'interprétation) qui sont présentes dans le débat du Big Data. Elle se base sur une analyse quantitative du contenu des articles de journaux suisses (N=251) et américains (N=258) publiés entre 2011 et 2018. Au total, cinq frames dominantes ont été identifiées. L'une se concentre sur les aspects critiques du Big Data (mauvaise utilisation des données), tandis que les quatre autres mettent l'accent sur les aspects positifs (progrès de la recherche, médecine et modèles d'entreprise, innovation de produits, amélioration des processus, optimisation du marketing). Par rapport aux Etats-Unis, l'élément critique est un peu plus fort en Suisse et l'intensité maximale du débat est plus tardive. Cela indique que l'ensemble du discours public sur le Big Data est davantage axé sur les opportunités et prend en compte les risques des applications.

Référence:

Principaux enseignements – Analyse des lois

L'analyse du droit suisse montre que le droit des assurances ne limite pas la personnalisation des contrats d’assurances privés. Les possibilités de personnalisation ne sont guère non plus limitées par la loi antidiscriminatoire, du moins tant que les offres individuelles se basent sur une évaluation moderne des risques. L'analyse de droit comparé s'est concentrée sur les lois des assurances, de la lutte contre la discrimination et de la protection des données en Suisse et aux Etats-Unis/Californie, car elles diffèrent fortement en termes d'approche réglementaire. Alors que le droit des assurances privées en Suisse est dominé par le principe de la liberté contractuelle, cette branche d'assurance est fortement réglementée en Californie et les tarifs sont soumis à l'approbation préalable du California Insurance Commissioner. En outre, le droit américain met davantage l’accent sur l'antidiscrimination, alors que la loi suisse sur la protection des données est plus complète et plus restrictive. Cela signifie que les possibilités de personnalisation en Suisse sont beaucoup plus importantes qu'aux Etats-Unis/Californie – mais seulement si les exigences en matière de protection des données sont respectées. Toutefois, cette législation devrait protéger la vie privée et donner aux individus un degré raisonnable de contrôle sur la collecte et l'utilisation de leurs données personnelles. Cela suggère que la loi sur la protection des données n'est pas la base juridique appropriée pour déterminer si et dans quelle mesure les compagnies d'assurances devraient être en mesure de personnaliser leurs offres.

Au lieu de cela, un dialogue public est nécessaire pour déterminer quels types d'assurance devraient être dominés par le principe de solidarité (p. ex. l'assurance maladie obligatoire) et dans quels domaines la personnalisation des contrats d'assurance devrait être autorisée (p. ex. l'assurance ménage et l'assurance automobile). Un tel dialogue pourrait être amorcé et mené par le secteur des assurances et fournir des renseignements importants qui serviraient de base afin que l’autorité de régulation puisse prendre des décisions réglementaires.

Référence:

Principaux enseignements – Recherche en éthique conceptuelle

Le débat sur l'éthique s'éloigne des aspects de la vie privée lors de la collecte de Big Data dans le domaine des assurances (et ailleurs) pour se tourner vers l'utilisation de ces données dans l'apprentissage automatique pour l'analyse prédictive, la quantification du risque et l'identification de la volonté de payer ou la détection de la fraude. Il y a un consensus croissant sur le fait que la distinction entre la discrimination directe et indirecte est de moins en moins prononcée et difficile à définir. La personnalisation détourne l'attention tant du client que des autorités de l'appartenance à un groupe à orientation sociale, p. ex. le sexe ou la race. Les décisions sont de plus en plus fondées sur des caractéristiques prédictives qui ne sont pas pertinentes sur le plan social, p. ex. la mesure du style de conduite ou des décisions relatives au mode de vie, comme l'inscription à un centre de fitness. Cela rend l'évaluation des risques moins problématique du point de vue de la discrimination, telle qu'elle est traditionnellement comprise. En même temps, des caractéristiques non sociales (p. ex. l'utilisation d’un centre de fitness) sont souvent en corrélation significative avec l'appartenance à des groupes socialement pertinents - et ces corrélations peuvent refléter des pratiques discriminatoires passées ou actuelles. Cependant, il est souvent impossible d'éliminer la discrimination indirecte sans compromettre l'exactitude des prévisions faites avec le Big Data.

Comme la précision de l'évaluation des risques, la détection des fraudes et la volonté de payer jouent un rôle important dans la détermination de la viabilité économique des entreprises, il peut y avoir des raisons éthiques d'accepter les méthodes de Big Data malgré leur discrimination indirecte. Par conséquent, l'introduction de décisions basées sur des prédictions "équitables" conduit à des conflits d'intérêts entre différentes intuitions d'équité et d'autres valeurs éthiques pertinentes. Cela suggère que des systèmes de référence pour un «Fairness by Design» peuvent être nécessaires pour réduire les risques de réputation lors de l'utilisation de l'apprentissage automatique dans la branche des assurances.

Référence:

Principaux enseignements – Etude par enquête empirique

L'enquête comprenait des réponses de Suisse (NAllemand=764, NFrançais=317) et des Etats-Unis (NUSA=1083). Trois constats sont frappants:

Premièrement, la volonté d'échanger des informations dépend du type d'information et de la confiance dans les institutions (p. ex. les compagnies d'assurances) et les entreprises Internet. Deux grandes tendances ont été distingués: les personnes qui font confiance à l’"économie traditionnelle" (compagnies d'assurances, médias, gouvernements, etc.) sont plus susceptibles de partager des données factuelles (nom, âge, etc.), tandis que les personnes qui font confiance à la «nouvelle économie» (entreprises Internet) sont plus susceptibles d'échanger des données émotionnelles (photos, commentaires, opinions, etc.). Cela suggère que les individus sont sélectifs quant aux informations qu'ils partagent et qu'ils sont plus susceptibles de partager des informations sensibles s'ils font confiance aux entreprises qui proposent des applications de Big Data.

Deuxièmement, les gens sont plus réticents quant à l’utilisation de données dans les produits d'assurance lorsque les données ne semblent pas être liées à l'objet de l'assurance; cette réticence est plus grande lorsque les valeurs d'équité, de vie privée et de solidarité sont "protégées". Cela suggère que le client attend une relation plausible entre les données à utiliser dans un produit et l'objectif d'assurance du produit.

Troisièmement, lorsqu'on interroge des experts, le faible nombre de réponses (N=23) ne permet de dégager que des résultats provisoires. Les experts sont confrontés en moyenne chaque mois à des questions éthiques et juridiques liées au Big Data. Le savoir-faire éthique est généralement disponible, mais les entreprises manquent souvent de directives. Cela suggère un écart possible entre la volonté de traiter les questions éthiques et la disponibilité des outils pour une mise en œuvre efficace.

Référence:

  • Tanner C, Christen M, et al. (in preparation): Clients’ perceptions and responses to threats to ethical values through Big Data. Contact équipe de recherche pour le manuscrit.
  • Loi, M, Christen, M, Tanner C (in preparation): Philosophical implications for trust and value perceptions in insurance. Contact équipe de recherche pour le manuscrit.
  • Sharon A, Hauser C et al. (in preparation): Information sharing behaviour on social networks: Which role does trust play? Contact équipe de recherche pour le manuscrit.
  • Dahinden, U, Tanner, C, et al. (in preparation): The relationship between client’s values and trust. Contact équipe de recherche pour le manuscrit.

Recommandations

  • La question de savoir si, dans quelles conditions et dans quelle mesure les compagnies d'assurances devraient être autorisées à personnaliser leurs contrats sur la base de Big Data Analytics ne devrait pas être résolue indirectement en appliquant des principes généraux de la protection des données et de la loi antidiscriminatoire.
  • Les autorités suisses devraient surveiller en permanence l'utilisation de Big Data pour la personnalisation des contrats d'assurance, identifier les formes de personnalisation indésirables et, le cas échéant, créer des dispositions spécifiques du droit des assurances, soit pour interdire la personnalisation, soit pour définir les conditions et l'étendue de la personnalisation autorisée.
  • Les compagnies d'assurances devraient éviter d'utiliser des sources de données non liées au risque assuré, car cela pourrait miner la confiance des clients dans les produits et services de la branche.
  • Les compagnies d'assurances devraient montrer à leurs clients comment elles protègent les valeurs fondamentales telles que la confidentialité, l'équité ou la solidarité contre les risques liés à Big Data Analytics.
  • Les compagnies d'assurances doivent être plus conscientes des moyens et des effets d'une utilisation discriminatoire indésirable de l'apprentissage automatique basé sur le Big Data dans les prévisions, la tarification et la détection des fraudes.
  • Les compagnies d'assurances devraient adapter leurs principes généraux d'éthique des affaires afin de rendre compte de la manière dont elles traitent systématiquement les questions éthiques découlant de la numérisation de la branche.