L’intelligence artificielle pour une assurance automobile plus éthique

Artificial intelligence to...

L’industrie de l’assurance automobile utilise souvent l’intelligence artificielle (IA) pour prédire le profil de risque et le niveau des clients. Cependant, les informations personnelles utilisées peuvent être sensibles, et l’utilisation de l’IA peut entraîner des discriminations injustes. Des techniques visant à corriger les biais discriminatoires dans les données d’assurance sont actuellement à l’étude afin de fournir des services financiers basés sur une IA plus éthique et responsable.

Artificial intelligence to...

Plus de cinq millions de Québécois possèdent un permis de conduire, leur permettant de circuler sur les routes de la province, qui s’étendent sur plus de 325 000 kilomètres. En 2021, la Société de l’assurance automobile du Québec a recensé 27 888 blessures résultant d’accidents de la route. Aux yeux des assureurs, chaque individu au volant d’une automobile représente un risque différent, et ces assureurs se reposent sur des algorithmes de plus en plus sophistiqués pour évaluer ce risque. Leurs estimations sont basées sur une masse croissante d’informations, dont certaines sont considérées controversées, sur les personnes assurées. Tout comme l’intelligence humaine, l’intelligence artificielle peut être biaisée, de sorte que les calculs qu’elle effectue discriminent certains segments de population. Mon projet de recherche vise à limiter ces biais discriminatoires en corrigeant les algorithmes utilisés par les assureurs automobiles afin que leurs prédictions soient plus en adéquation avec les valeurs de la société.

La discrimination indirecte : un problème insidieux

De nombreuses juridictions dans le monde interdisent la discrimination dans l’industrie de l’assurance automobile sur certains critères : le genre en Europe, l’origine ethnique au Texas, la religion en Californie et la note de crédit en Ontario, par exemple. Cependant, interdire la prise en compte d’un critère controversé dans l’estimation du risque ne supprime que la discrimination directe basée sur ce critère. Une intelligence artificielle peut toujours deviner indirectement le critère problématique et continuer à discriminer de manière injuste, à l’insu de l’analyste qui a créé l’algorithme. Ce phénomène insidieux est connu sous le nom de “discrimination indirecte”.

Par exemple, même si l’IA n’a pas accès au genre des individus lors de la fixation des primes d’assurance, elle peut néanmoins attribuer des primes différentes aux infirmières, dont la majorité sont des femmes, par rapport aux mécaniciens automobiles, dont la majorité sont des hommes. Aux États-Unis, il existe également une corrélation marquée entre l’origine ethnique et le lieu de résidence des personnes assurées, ce qui peut amener une IA à discriminer indirectement sur la base de l’origine ethnique lorsqu’elle “voit” où quelqu’un vit. De même, même si un assureur est interdit de discriminer en fonction de la note de crédit, l’IA peut déduire la note de crédit d’une personne en utilisant son âge ou son statut matrimonial. Il existe de nombreuses corrélations de ce type entre les données, et elles permettent à un outil d’IA d’accéder indirectement à des informations potentiellement sensibles. La situation devient encore plus préoccupante lorsque chaque individu dispose d’une grande quantité de données disponibles. Il devient alors plus difficile pour les analystes chargés d’évaluer les aspects éthiques de l’intelligence artificielle de reconnaître les cas de discrimination indirecte et, plus important encore, de trouver des solutions pour remédier à la situation.

Stratégies statistiques pour détecter et atténuer la discrimination indirecte

L’objectif de mon projet est de développer des stratégies statistiques qui peuvent détecter et atténuer la discrimination indirecte par de tels algorithmes. À cette fin, trois types de stratégies ont été proposés. Tout d’abord, les données peuvent être modifiées pour éliminer tout indice de caractéristiques jugées sensibles, rendant ainsi l’intelligence artificielle aveugle à ces caractéristiques. Ensuite, des contraintes humaines peuvent être appliquées à l’intelligence artificielle de manière à ce qu’elle soit “pénalisée” pour toute décision considérée comme injuste selon l’une de ces contraintes. Enfin, les prédictions de l’IA peuvent être adaptées pour les rendre plus équitables et éviter ainsi d’imposer un fardeau injuste à un segment de la population.

Mon projet de recherche mettra l’accent sur la troisième stratégie, en proposant de nouvelles méthodes statistiques pour adapter les prédictions de l’IA. Ces outils supplémentaires s’inspireront de l’inférence causale, une branche des statistiques qui dépasse les simples corrélations et se concentre sur les relations de cause à effet. L’intelligence artificielle est un excellent détecteur de corrélation. Cependant, la corrélation n’implique pas nécessairement une causalité directe. Par exemple, les ventes de crème glacée sur une plage peuvent être corrélées aux attaques de requins, mais cela ne signifie pas que les ventes de crème glacée causent les attaques de requins. La corrélation observée est trompeuse : les deux phénomènes sont simplement liés à la saison estivale et au fait que plus de personnes visitent les plages à cette période de l’année. L’inférence causale offre donc une méthode indispensable pour identifier les caractéristiques des individus qui contribuent réellement à augmenter le risque d’accident de la route, en évitant ainsi les corrélations fallacieuses dans l’estimation du risque. Par exemple, une analyse de causalité pourrait démontrer que l’âge est un facteur déterminant dans le risque d’accident de la route, tout en excluant une corrélation potentielle entre l’origine ethnique et les accidents de la route en raison de l’absence de causalité.

Application pratique des nouvelles méthodes statistiques

Afin de s’assurer que les nouvelles méthodes statistiques sont applicables au contexte de l’assurance automobile, elles seront testées sur des données réelles obtenues grâce à un partenariat de recherche avec l’un des principaux assureurs automobiles du Canada. L’objectif est de créer une méthodologie accessible, efficace et clé en main utilisable par des experts juridiques et des spécialistes du domaine de l’assurance automobile souhaitant critiquer ou adapter des algorithmes susceptibles de discriminer de manière injuste. Le domaine de l’assurance automobile n’est qu’une étude de cas ; les enseignements tirés du projet pourraient être utilisés pour améliorer la norme éthique de tout système d’intelligence artificielle qui influence directement ou indirectement les membres de la société.

En conclusion, l’utilisation responsable de l’intelligence artificielle dans l’industrie de l’assurance automobile nécessite une attention particulière pour éviter les discriminations injustes. En développant des stratégies statistiques pour détecter et atténuer la discrimination indirecte, nous pouvons contribuer à une assurance automobile plus éthique, respectueuse des valeurs de la société.