Dans les années à venir, le cabinet Gartner prévoit que les entreprises commenceront à utiliser des algorithmes pour analyser les communications enregistrées sur le lieu de travail afin d'identifier les domaines d'amélioration organisationnelle, de contrôler la conformité, de rationaliser les flux de travail, etc. Attention à ne pas franchir la ligne blanche…
Dans leur rapport« Top Strategic Predictions for 2021 and Beyond: ResettingEverything », les analystes de Gartner prédisent que les trois quarts des « conversations au travail seront enregistrées et analysées » d'ici 2025. Ces capacités permettront « la découverte de la valeur ajoutée ou du risque organisationnel ».
« De nombreuses conversations que nous avons au travail, lors de réunions par exemple, et dans le support à la clientèle ont une valeur intangible pour les entreprises », a déclaré Magnus Revang, vice-président de la recherche au Gartner.
En analysant ces communications, les organisations pourraient identifier des sources d'innovation et d'accompagnement dans toute l'entreprise, a expliqué Magnus Revang.
Toutefois, la valeur ajoutée potentielle s'accompagne également de risques et de préoccupations en matière de confidentialité des données à prendre en compte.
Pour aider à la mise en œuvre, ce rapport détaille donc une série de recommandations telles que la création d'un comité d'éthique pour déterminer l'utilisation équitable de ces données de communication.
Le rapport recommande également de supprimer ou d'anonymiser les conversations une fois analysées et les organisations devraient « éviter de se concentrer sur des employés en particulier ».
« Il n'est pas nécessaire de localiser les conversations individuelles. Il s'agit plutôt d'indiquer où l'information circule pour pouvoir déterminer avec précision ce qui est important et qui contribue, peut-être beaucoup plus que ne le diraient les données de votre entreprise », a déclaré M. Revang.
Mais attention aux dérives engendrées notamment par des biais en IA. L’intelligence artificielle et les capacités de reconnaissance faciale ont fait l'objet d'un examen minutieux en raison des biais sous-jacents et des défauts inhérents à ces modèles.
En utilisant des algorithmes pour évaluer l'innovation des employés et éventuellement déterminer leur rémunération, les organisations risquent d'introduire des biais dans leurs ensembles de données.
« Il y a un risque que les modèles soient faussés ou biaisés en fonction des données que vous avez déjà sur le comportement des personnes et sur ce qui fait une bonne ou une mauvaise performance », prévient en effet MagnusRevang.
D’où la méfiance des salariés français quant à l’usage de l’IA…