Google a dévoilé récemment un nouveau module pour son framework d’apprentissage automatique « TensorFlow ». Baptisé « TensorFlow Privacy », cet outil permettra aux développeurs de protéger les données de leurs applications d’intelligence artificielle. Cette protection est possible grâce à un procédé qui est aussi connu sous l’appellation de « confidentialité différentielle ». TensorFlow fait partie des outils les plus utilisés pour la création d’applications d’apprentissage automatique. Il est actuellement exploité par de nombreux développeurs du monde entier pour la conception d’algorithmes de reconnaissances audio, de textes et d’images.
Carey Radebaugh, le responsable produit chez Google a déclaré que TensorFlow Privacy est conforme aux principes de Google pour un développement responsable de l’IA. Il a également souligné que si TensorFlow n’intègre pas la fonctionnalité de « confidentialité différentielle », les équipes internes et externes de Google ne pourront pas l’exploiter. Les dispositifs de confidentialité différentielle fonctionnent d’une manière assez complexe. La protection des données se fait grâce à un algorithme mathématique qui transforme les modèles d’IA conçus sur des données utilisateurs afin qu’ils ne puissent pas afficher des informations identifiables. Cette technique constitue la meilleure solution pour simplifier la protection des données relatives à la création de modèles d’intelligence artificielle.