Le monde de la technologie vidéo est à un tournant passionnant, l'intelligence artificielle étant appelée à jouer un rôle important. Bill Gates, cofondateur de Microsoft, considère le développement de l'IA comme l'avancée technologique la plus importante de ces dernières décennies. "Elle changera la façon dont les gens travaillent, apprennent, voyagent, se soignent et communiquent entre eux", a-t-il déclaré. ChatGPT en est un bon exemple. Les humains peuvent ainsi se consacrer à des tâches de plus haut niveau et prendre des mesures en fonction de ce que les informations nous disent.

Au-delà de ChatGPT, la combinaison d'autres appareils intelligents dotés de fonctions d'analyse basées sur l'apprentissage en profondeur avec l'IA changera la donne dans le monde de la technologie et apportera de nombreux avantages qui renforceront l'autonomie des personnes, des entreprises et des sociétés.

Cependant, nous sommes conscients que ces technologies comportent des risques, et il peut être naturel de s’inquiéter du rôle croissant qu'elles joueront dans notre vie de tous les jours. Les générations futures pourraient avoir des attentes différentes quant à la manière dont la technologie, et en particulier les solutions d'IA, sont utilisées dans la société. C'est pourquoi il existe une demande croissante pour une nouvelle approche dans laquelle la technologie n'est pas l'objectif, mais un moyen de parvenir à une fin.  

Comment assurer un usage responsable et sans biais de la technologie ?

Traditionnellement, le débat sur les performances des solutions d'IA porte sur la manière de collecter et d'utiliser les données sans introduire de biais. Dans le débat populaire, la préoccupation concernant les biais s'est concentrée sur les faiblesses relatives de la détection et de la distinction entre les personnes en fonction de leur couleur de peau. Bien que les préjugés aient fait l'objet de nombreuses discussions, la préoccupation concernant les performances de l'IA est plus large. Il y a notamment trois domaines à prendre en considération :
  1. Lors de la collecte des données, comment recueillir les données de formation de manière à ne pas violer la vie privée des personnes et à représenter fidèlement la population opérationnelle ?
  2. Pendant le développement, comment valider que les données utilisées pour la formation donnent une représentation fidèle de l'environnement opérationnel ?
  3. Pendant le déploiement, comment évaluer les performances de la solution dans l'environnement opérationnel pour découvrir les comportements biaisés et évaluer si les performances de la solution se détériorent avec le temps (dérive du concept) ?
Nous ne pouvons plus juger de la performance d'une solution d'IA en comptant simplement le nombre d'incidents vrais et faux, positifs et négatifs. Pour instaurer la confiance dans les solutions d'IA, nous devons penser à la performance tout au long de la durée de vie, et pas seulement pendant le développement. Cela signifie de meilleures données de formation pour les tests pendant le développement, puis nous devons surveiller en permanence les solutions en fonctionnement pour détecter les effets secondaires et les conséquences involontaires.

Aujourd'hui, nous considérons de plus en plus les solutions d'IA comme un produit de base que l'on achète, que l'on déploie et que l'on laisse tranquille. A l'avenir, nous devons surveiller la solution tout au long de sa durée de vie. Et si ses performances se détériorent, il faut soit la recycler, soit la remplacer.

Pour que les solutions d'IA soient acceptées comme faisant partie de la vie quotidienne, les entreprises technologiques doivent utiliser cette technologie pour servir le plus grand bien de l'humanité et non pas uniquement pour générer des profits. Pour que les générations actuelles et futures en tirent profit, nous devons mettre en œuvre cette technologie étonnante de la bonne manière, c'est-à-dire de manière responsable.

Par Rahul Yadav, CTO de Milestone Systems