Dans un monde où les communications passent majoritairement par l’écran, ces figures de confiance sont de puissants vecteurs d’influence. Cette nouvelle donne n’a pas échappé aux cybercriminels qui s’en emparent pour tromper leurs cibles à travers des contenus falsifiés, diffusés via les réseaux sociaux, les messageries ou même les appels vidéo des figures de confiance en question.
De la tromperie à la manipulation émotionnelle
L’ingénierie parasociale repose sur un mécanisme bien connu des psychologues : la familiarité. Les cybercriminels s’appuient sur la confiance que nous accordons aux personnes que nous « connaissons » à travers nos écrans — dirigeants, influenceurs, experts — pour obtenir des informations, manipuler des comportements ou accéder à des systèmes sensibles.Grâce aux progrès spectaculaires de l’IA, ces manipulations gagnent en crédibilité. Les deepfakes, ces vidéos ou sons générés par l’IA et qui imitent à la perfection l’apparence ou la voix d’une personne, ne sont plus un phénomène marginal. Au contraire, ils constituent désormais un outil simple d’utilisation de l’arsenal cybercriminel, puisqu’ils permettent d’usurper l’identité de personnalités avec un réalisme troublant. Cette ingénierie sociale « alimentée par l’IA » ne se résume plus à un simple e-mail de phishing bien rédigé et sans faute d’orthographe ; elle exploite désormais l’émotion et la confiance, pour devenir de plus en plus crédible.
Un contexte propice à la prolifération des attaques
Le développement du télétravail, la montée en puissance du personal branding, l’essor du marketing d’influence et la multiplication des communications à sens unique (webinaires, newsletters, réseaux sociaux) renforcent ce terrain favorable. Les échanges directs se raréfiant, il est désormais plus difficile de vérifier les informations reçues.Dans ce contexte, les campagnes de fraude ou de désinformation utilisant de faux visages familiers se multiplient. En 2025, plusieurs campagnes d’escroquerie ont déjà mis en scène des avatars réalistes de dirigeants d’entreprises et de régulateurs afin de soutirer des fonds ou des données sensibles. Par exemple, la Financial Conduct Authority (FCA), qui réglemente le secteur des services financiers au Royaume-Uni, a été usurpée pour « aider les victimes » à récupérer leur argent, dans le seul but de les escroquer à nouveau. Des journalistes anglophones connus du grand public tels que Martin Lewis ou Zoe Ball ont également été victimes de deepfakes, afin de promouvoir de faux investissements ou produits financiers.
Ces attaques ne reposent plus sur des fautes grossières ou des tentatives d’hameçonnage maladroites, mais sur la crédibilité émotionnelle d’un message, incarné par une personne apparemment familière. Cette évolution traduit un basculement majeur : la cybersécurité ne se joue plus seulement sur le terrain de la technique, mais aussi sur celui de la perception et de la confiance.
Vers une réponse collective
La lutte contre ce nouveau type de menace ne saurait reposer uniquement sur la vigilance individuelle. Elle exige une approche collective, combinant technologie, régulation et éducation numérique.Premièrement, les entreprises doivent intégrer la détection des contenus synthétiques et les filigranes à leurs dispositifs de sécurité, en utilisant par exemple des outils tels que synthID, développé par Google. Les algorithmes d’analyse d’images et de voix, capables d’identifier des artefacts de génération ou des incohérences biométriques, constituent une première ligne de défense. Deuxièmement, les plateformes doivent renforcer la transparence des contenus générés, via des signatures numériques ou des métadonnées cryptographiques indiquant l’origine d’une vidéo ou d’un fichier audio. Enfin, les collaborateurs doivent être formés à reconnaître les signes subtils d’une falsification : micro-expressions figées, décalage entre la voix et les lèvres, tonalité émotionnelle inhabituelle ou absence d’interaction directe. La meilleure défense consiste à vérifier via un autre canal de communication. Par exemple, après un message WhatsApp urgent ou un appel téléphonique, il est préférable de vérifier via un message sur Slack ou un e-mail.
Redéfinir la confiance numérique
L’ingénierie parasociale illustre un changement profond dans la nature des menaces : l’exploitation de la confiance comme surface d’attaque. Les organisations doivent désormais traiter la réputation, la visibilité en ligne et l’identité numérique de leurs dirigeants comme des actifs stratégiques à protéger. Dans un monde où la réalité peut être synthétisée à volonté, la résilience numérique dépendra de notre capacité collective à distinguer l’authentique du fabriqué.Par Kirsty Paine, Field CTO & Strategic Advisor EMEA chez Splunk























