PegaSystems a annoncé le lancement de la fonction Ethical Bias Check, une nouvelle fonction de sa plateforme décisionnelle clients, Pega Customer Decision Hub. Comme son nom l’indique, la fonction est censée éliminer les données biaisées dissimulées dans l’intelligence artificielle gérant l’engagement client. Cette fonction signale les offres ou messages générés par l’IA qui sont susceptibles d’être discriminatoires. Et ce, sur l’ensemble des canaux et avant que ceux-ci n’atteignent le client.
Pour pouvoir détecter les biais, la fonction simule les résultats escomptés de la stratégie en s’appuyant sur des analyses prédictives. Après avoir fixé leurs seuils de test, les utilisateurs reçoivent des alertes si le risque de données biaisées atteint un niveau défini comme inacceptable. Par exemple, si la cible d’une offre s’éloigne dans un sens ou dans un autre des données démographiques spécifiques. Les équipes opérationnelles peuvent alors identifier l’algorithme incriminé et ajuster la stratégie, pour aider à garantir des résultats équitables et plus équilibrés pour tous.
L’éditeur indique que son détecteur de biais bénéficie d’une conception unique. Contrairement à la plupart des autres outils d’IA, qui nécessitent des tests de données biaisées distincts pour chaque offre individuelle, Pega rationalise ces tests en simulant une stratégie d’engagement globale, sur l’ensemble des canaux connectés. Un processus moins chronophage et plus sûr. Grâce au « cerveau » central de l’IA de Pega, toutes les décisions de l’IA peuvent être filtrées, y compris les offres marketing proposées via le Web, les promotions à envoyer par e-mail ou les suggestions de services à offrir à chaque client. Pega fournit ensuite des rapports détaillés de détection des données biaisées, pour expliquer aux utilisateurs pourquoi et où les problèmes peuvent survenir, afin qu’ils puissent y remédier avant qu’ils n’atteignent les clients.
Pour éviter la multiplication des alertes, les entreprises peuvent définir des seuils acceptables pour un élément susceptible d’entraîner des données biaisées, comme l’âge, le genre ou l’appartenance ethnique. Elles peuvent également ajuster ces seuils pour les scénarii dans lesquels les résultats semblent biaisés. Par exemple, lorsque le ciblage ne concerne qu’une partie de la population comme les séniors, pour des entreprises du secteur de la santé par exemple.
Pour entraîner l’IA, les utilisateurs peuvent à présent inclure un test de données biaisées comme un processus standard lorsqu’ils simulent les résultats d’une stratégie. Ainsi, même en cas de modifications ou d’ajouts d’offres, les utilisateurs sont assurés que ces programmes d’engagement client seront filtrés par le logiciel pour détecter toute donnée biaisée.