Le concept d'équité dans le Machine Learning (ML) signifie la mise en œuvre d'algorithmes qui prennent des décisions de manière impartiale, indique Nicolas Thévenet. Le 21 mars 2024, l'Assemblée générale des Nations Unies a adopté une résolution importante visant à exploiter l'intelligence artificielle (IA) dans l’intérêt mondial et à accélérer les progrès vers les objectifs de développement durable énoncés dans l'Agenda 2030. La résolution, intitulée « Saisir les opportunités offertes par des systèmes d'IA sûrs et fiables pour le développement durable », a été adoptée en mettant l'accent sur l'impératif de lutter contre la discrimination raciale dans le monde. Il ne s'agit là que d'un exemple parmi d'autres illustrant l'importance des discussions actuelles sur l'utilisation des technologies pour un impact mondial positif, et la façon dont les principaux décideurs suivent
de près les développements.
Nous avons tous une responsabilité, et alors que l'IA poursuit son ascension fulgurante dans tous les secteurs, son application dans le domaine de l'assurance est devenue un point central à la fois d’innovation et de vigilance. Le défi principal consiste à exploiter la puissance de l'IA pour optimiser les opérations de bout en bout des assureurs - y compris les modèles - tout en respectant les principes de justice et d'équité. Il est essentiel de reconnaître cet équilibre, et c'est pourquoi le secteur et ses fournisseurs de technologie doivent prendre des mesures proactives pour soutenir et garantir les meilleures pratiques concernant l'application éthique, équitable et compréhensible de l'IA dans le
domaine de l'assurance.
Avec la complexité croissante des modèles d'IA et le développement des questions réglementaires à l'échelle mondiale, les assureurs sont confrontés à des défis pour gérer les transformations de l'IA tout en restant conformes à des réglementations telles que le Règlement Général sur la Protection des Données (RGPD) de l'UE, la Directive sur la distribution d'assurances (IDD) en Europe et la législation sur le Consumer Duty au Royaume-Uni. L'IA s'intégrant de plus en plus dans le paysage de l'assurance mondiale, sa gouvernance est essentielle pour un développement et un déploiement responsables et éthiques, le maintien d’un alignement avec les réglementations, ainsi que la transparence et l'équité dans les modèles.
Maintenir la confiance des clients
Il est essentiel que les assureurs puissent expliquer de manière transparente les décisions prises en matière d'IA et se conformer aux exigences réglementaires, afin d'éviter d'éventuelles conséquences juridiques et de maintenir la confiance des clients. Il est indispensable que les assureurs donnent la priorité à la gouvernance de l'IA pour conserver une longueur d'avance sur les changements réglementaires et tirer parti du potentiel de l'IA pour apporter de la valeur aux clients et à leur activité.Les assureurs collectent de grandes quantités de données, notamment les données démographiques des clients, l'historique des sinistres, les informations sur les véhicules, les détails des biens, et plus encore. Les algorithmes d'IA, tels que les modèles de ML, sont déployés pour analyser ces données afin d'identifier des patterns et des corrélations que l’humain pourraient négliger. En comprenant ces schémas, les assureurs peuvent mieux prédire la probabilité d'un sinistre et ajuster la tarification des polices en conséquence.
L'IA est considérée par beaucoup comme un outil essentiel pour évaluer les risques de manière plus précise en tenant compte d'un plus grand nombre de variables et de facteurs. Par exemple, dans le domaine de l'assurance automobile, les facteurs de risque traditionnels sont l'âge, les antécédents de conduite, la marque et le modèle du véhicule. Les algorithmes d'IA peuvent intégrer des données supplémentaires telles que le comportement de conduite (enregistré par des dispositifs télématiques), les conditions météorologiques et même la qualité de l'infrastructure routière, afin de fournir une évaluation plus nuancée du risque. L'IA permet aux assureurs d'ajuster les modèles de manière dynamique en fonction de l'évolution des facteurs de risque
et des conditions de marché.
Les méthodes évoluent
C'est pourquoi l'équité dans l'IA n'est pas juste un mot à la mode - c'est un impératif moral. Les algorithmes d'IA influençant de plus en plus les décisions en matière d'assurance, de l'évaluation des risques à la tarification, le risque de biais et de discrimination devient une préoccupation majeure. Le secteur de l'assurance doit s'engager à aborder ces questions. Ce dont nous avons besoin, ce sont des repères guidant les assureurs vers les meilleures pratiques éthiques en matière d'IA.À l’origine, l'équité dans le ML signifie la mise en œuvre d'algorithmes qui prennent des décisions de manière impartiale, sans préjugés à l'égard de critères sensibles et protégés tels que le genre, la race ou l'âge. Cet engagement en matière de responsabilité sociale va au-delà de la conformité réglementaire - il s'agit de créer des opportunités et des résultats équitables pour tous les individus.
Comment mesurer l'équité ?
L'équité dans les processus décisionnels peut être évaluée selon différentes approches, qui peuvent être appliquées méthodiquement aux modèles et aux algorithmes décisionnels. La parité démographique, par exemple, met l'accent sur l'indépendance des décisions par rapport aux critères sensibles. L'égalité des opportunités vise à obtenir des taux de vrais positifs égaux parmi divers groupes, tandis que l'égalité prédictive cherche à équilibrer les taux de faux positifs parmi ces groupes.Le principe d’égalité des chances intègre à la fois l'égalité des opportunités et l'égalité de prédiction, afin de tendre vers la parité des taux de vrais et de faux positifs. L'équité individuelle, quant à elle, se concentre sur des individus comparables recevant des prédictions similaires. Enfin, l'étalonnage se concentre sur la précision des probabilités prédites au sein de différents groupes, ce qui constitue un cadre complet pour l'évaluation de l'équité dans la prise de décision.
En proposant une approche multifacette pour mesurer l'équité, y compris la parité démographique, l'égalité des opportunités et l'égalité prédictive, les assureurs peuvent être amenés à donner la priorité à l’équité dans leurs modèles d'IA et à en mesurer l’impact. De même, ils s’attacheront à faire évaluer leurs modèles de manière impartiale par rapport aux meilleures pratiques, de la segmentation à la sélection des indicateurs. Il ne s'agit pas seulement d'identifier les disparités, mais de prendre des mesures concrètes
pour y remédier.
Dans un secteur concurrentiel où la tarification est primordiale, l'IA éthique n'est pas seulement un impératif moral - c'est un avantage stratégique. Les assureurs qui donnent la priorité à l'équité dans leurs modèles d'IA ne se contentent pas d'atténuer les risques réglementaires, ils instaurent également la confiance avec les clients. Alors que les consommateurs exigent plus de transparence et de responsabilité de la part des assureurs, l'adoption d'approches éthiques permet aux assureurs de répondre à leurs attentes.
Avec des réglementations telles que RGPD et IDD en Europe, et la surveillance des États et du gouvernement fédéral aux États-Unis, les assureurs sont de plus en plus sous le feu des projecteurs concernant leurs pratiques en matière d'IA. Le secteur a besoin d'outils pour naviguer dans ces complexités réglementaires, visant à atteindre une conformité équitable tout en stimulant l'innovation. Le secteur de la tech doit se mobiliser pour les fournir et créer ainsi un environnement dans lequel l'IA responsabilise, plutôt qu’il ne discrimine. Alors que le secteur de l'assurance adopte l'IA, les questions éthiques doivent
rester au premier plan.
Par Nicolas Thévenet, Directeur des ventes, Europe chez Earnix