Lancé en 2016, le programme de passeport britannique basé sur une intelligence artificielle de reconnaissance faciale est en train de créer une polémique majeure. Il est utilisé par le Bureau de l'Intérieur britannique pour vérifier si les photos utilisées par chaque citoyen sont conformes aux normes fixées pour une utilisation sur un passeport. Dans le cas contraire, l’IA rejette systématiquement la photo. Si les sujets à la peau blanche ne rencontrent pas de problèmes majeurs avec ce système, à l’inverse, les autres groupes ethniques rencontrent quelques difficultés. Bon nombre d’observateurs et d’acteurs comme medConfidential, entreprise spécialisée dans la protection des données personnelles, se sont insurgés contre cette IA présentant ainsi des attributs racistes, d’autant plus que leBureau de l'Intérieur britannique était parfaitement au courant de ce mode de fonctionnement depuis le début du programme.
Dans un rapport, Adam Vaughn, rédacteur en chef de New Scientist, a déclaré que le Bureau de l'Intérieur britannique a apporté des clarifications sur la situation. Il a confirmé avoir connaissance du caractère « raciste » du système, mais estimait que la performance globale de l’IA permettait de la déployer. Pourtant, celle-ci risque de considérer ce paramètre de race dans ses données. C’est ce qui est arrivé à Google, malgré une étude réalisée sur des personnes afro-américaines sans abri pour éviter une situation semblable, mais aussi à Amazon avec son logiciel Rekognition.