La confiance numérique se gagne ou se perd à l'instant précis où un utilisateur tente de s'inscrire, de se connecter ou de modifier ses permissions. Le Thales Digital Trust Index 2026, conduit par Vanson Bourne pour Thales auprès de plus de 15 000 répondants dans 13 pays, en apporte la démonstration chiffrée. Au-delà du constat sur la friction numérique, le rapport révèle deux angles morts majeurs : la dette de sécurité accumulée dans les écosystèmes partenaires, et le fossé qui sépare le rythme de déploiement de l'IA du niveau de confiance que les utilisateurs lui accordent.

La couche d'accès concentre les moments où la confiance se construit ou s'effondre. Pas moins de 57 % des consommateurs interrogés déclarent avoir rencontré des problèmes en accédant à un site ou une application au cours des douze derniers mois. Parmi ceux confrontés à un parcours d'inscription trop long ou trop complexe, 33 % ont soit basculé vers un service concurrent, soit abandonné définitivement. La friction protectrice, visible, expliquée et proportionnelle au risque, renforce la confiance. Ainsi, 69 % des consommateurs feraient davantage confiance à une organisation déployant l'authentification multifacteur, et 68 % à une organisation proposant des clés d'accès passkeys. La friction opaque ou excessive génère en revanche de l'abandon, et seulement 16 % des consommateurs déclarent comprendre réellement comment les organisations collectent, utilisent et protègent leurs données personnelles.

La transparence agit ici comme levier de conversion. Lorsque les organisations justifient clairement pourquoi elles collectent une information, la disposition à partager augmente substantiellement. Pour le numéro de téléphone, elle passe de 19 % à 48 % dès lors que la raison est expliquée. Pour l'adresse courriel, de 33 % à 54 %. Pour l'identifiant national, de 7 % à 24 %. Le rapport préconise de reporter les demandes d'information sensibles jusqu'au moment où elles sont nécessaires, et de les accompagner d'une justification explicite à chaque étape.

Une dette de sécurité silencieuse

Le volet partenaires révèle une réalité préoccupante pour les organisations disposant de réseaux étendus de revendeurs, de fournisseurs et de prestataires. Seulement 22 % des utilisateurs partenaires reçoivent leurs accès immédiatement au démarrage d'une collaboration, et seulement 30 % obtiennent d'emblée l'ensemble des permissions nécessaires. Ces défaillances d'approvisionnement initial se prolongent tout au long de la relation, puisque 19 % seulement des utilisateurs partenaires voient leurs droits mis à jour immédiatement lorsque leurs responsabilités évoluent.

La conséquence est mécanique. Lorsque les voies officielles sont trop lentes, les utilisateurs contournent les contrôles. Pas moins de 66 % des utilisateurs partenaires déclarent avoir partagé ou emprunté des identifiants au cours des douze derniers mois, et parmi eux, 53 % citent explicitement la lenteur des processus d'accès comme cause principale. Les responsables IT et sécurité attribuent ce comportement à la commodité, 39 % l'expliquant par une préférence organisationnelle pour un identifiant commun, plutôt qu'à la friction opérationnelle. Cet écart de perception avec leurs propres utilisateurs est significatif.

Ces contournements constituent ce que le rapport nomme une dette de sécurité silencieuse, des pratiques qui s'installent en l'absence de contrôle formel fonctionnel, augmentent l'exposition aux compromissions d'identité, et se révèlent difficiles à quantifier jusqu'à l'incident. Pas moins de 52 % des utilisateurs partenaires estiment que quelqu'un a pu accéder à un système externe en se faisant passer pour eux au cours des douze derniers mois, et 69 % des responsables IT et sécurité déclarent avoir détecté des comptes consommateurs frauduleux créés via des identités synthétiques sur la même période.

L'IA va trop vite, la confiance ne suit pas

Parmi les responsables IT et sécurité, 93 % déclarent utiliser, déployer ou planifier l'usage de l'IA générative, et 92 % font de même pour l'IA agentique. En face, seulement 23 % des consommateurs déclarent faire confiance à une organisation qui utilise l'IA pour traiter leurs données. L'IA réduit davantage la confiance des consommateurs (38 %) qu'elle ne l'accroît (25 %), et 77 % expriment des inquiétudes vis-à-vis d'assistants IA agissant en leur nom en ligne. Le même déploiement peut être perçu comme protecteur ou intrusif selon que ses objectifs et ses limites sont explicités ou non.

Le profil des utilisateurs partenaires est radicalement différent. Parmi eux, 81 % feraient davantage confiance à une organisation utilisant l'IA pour renforcer la sécurité, et 70 % y voient un vecteur d'amélioration des processus d'accès. L'IA appliquée à des résultats opérationnels concrets, réduction des délais d'accès, détection d'anomalies et fluidification de l'authentification, recueille une adhésion forte. La variable n'est pas la technologie elle-même : c'est la transparence sur ce qu'elle fait et pourquoi elle est là.

La gouvernance des identités et des accès conditionne directement la performance commerciale à la couche consommateur, la continuité opérationnelle à la couche partenaire, et la trajectoire de confiance dans les déploiements d'IA. Les organisations qui traitent la couche d'accès comme un investissement stratégique réduisent simultanément leur exposition aux risques d'identité, leur taux d'abandon, et le volume de contournements qui alimentent la dette de sécurité silencieuse.