Le baromètre JIN 2025 interroge la réputation des dirigeants du SBF 120 sous un angle inédit : que perçoivent les IA génératives de leur image, et à partir de quelles sources ? L’initiative soulève une question structurante : si ces modèles deviennent les nouveaux filtres de l’information, la maîtrise des contenus accessibles devient stratégique. Cette prise de conscience ouvre un nouveau champ de souveraineté informationnelle – discret, mais déterminant.
À première lecture, un baromètre qui repose sur l’analyse des réponses fournies par plusieurs IA à des requêtes types portant sur l’image, les valeurs, la trajectoire ou l’engagement des dirigeants, peut constituer une grille d’analyse inattendue, voire déroutante. Pourtant, elle s’inscrit pleinement dans la dynamique actuelle : à mesure que les modèles de langage deviennent des intermédiaires d’information dans les environnements professionnels, leur influence déborde le seul usage conversationnel.
Ils synthétisent, trient, hiérarchisent, et leurs réponses inspirent une confiance croissante. Dans ce contexte, il est naturel que des entreprises de communication comme JIN testent de nouvelles manières d’évaluer la présence publique. Ce baromètre ne prétend pas mesurer la valeur réelle des dirigeants, mais il interroge la manière dont leur image est modélisée par des IA sans conscience, mais pas sans biais.
En cela, il offre un point d’appui précieux pour analyser l’évolution des rapports entre contenus, réputation et pouvoir d’interprétation algorithmique. Car si l’IA devient le nouveau filtre de l’information, ce sont les sources qu’elle mobilise, et les règles qui les sélectionnent, qui façonnent la réalité perçue. Et cette réalité, dès lors qu’elle est automatisée, peut produire des effets de réputation à grande échelle. D’où l’urgence de comprendre ce que ces systèmes "voient", comment ils construisent leurs réponses, et quelles stratégies les entreprises peuvent adopter pour maîtriser cette nouvelle exposition.
Les IA ne traitent que ce qu’on leur donne à lire
Les IA génératives fonctionnent selon un principe statistique : elles produisent des réponses à partir des textes qu’elles ont vus, lus, ou intégrés dans leurs bases. Or tous les contenus ne sont pas égaux. Certains sites sont explicitement utilisés lors de l’entraînement (encyclopédies, dépêches, données structurées), d’autres sont ignorés ou exclus (sites peu fiables, forums non modérés, pages mal structurées). Ce processus crée une hiérarchie implicite des sources. Lorsqu’un modèle est interrogé sur un dirigeant, il synthétise ce qu’il trouve dans les sources réputées fiables, lisibles, bien référencées, rarement au-delà.
Dans l’étude de JIN, les trois dirigeants les mieux perçus – Estelle Brachlianoff (Veolia), Tim Albertsen (Ayvens) et Benoît Bazin (Saint-Gobain) – ont tous une présence significative sur les sites officiels, dans les bases de presse et sur les plateformes sociales validées. À l’inverse, les derniers du classement souffrent d’une faible documentation dans ces espaces. Non pas parce qu’ils ne communiquent pas, mais parce que leurs prises de parole n’ont pas été indexées, agrégées, ou jugées dignes d’être intégrées dans les corpus de référence. Ce n’est pas l’IA qui choisit : ce sont ses concepteurs, ses filtres, ses accords de licence et ses critères de modération qui font le tri en amont.
La bataille silencieuse des corpus
Cette hiérarchisation des sources n’est ni neutre, ni universelle. Chaque fournisseur de modèle, OpenAI, Google, Anthropic, Mistral, etc., construit son corpus différemment : certains achètent des licences à la presse, d’autres s’appuient sur du contenu libre, d’autres encore privilégient leurs propres bases. Résultat : une entreprise peut être très visible pour un moteur, et quasi absente pour un autre. Cette asymétrie crée un effet de fragmentation de la réputation. Elle complexifie aussi les stratégies de communication, qui doivent désormais intégrer la diversité des IA en circulation, leurs méthodes d’entraînement et les sources qu’elles privilégient.
Ce paysage devient encore plus critique avec l’essor des architectures RAG (Recherche + Génération), qui associent une moteur de recherche interne et une IA générative. Dans ce modèle, le choix des documents injectés dans le contexte devient un levier de contrôle majeur. Or ces documents ne proviennent pas toujours du Web grand public : il peut s’agir de bases propriétaires, de corpus métiers, de données privées, voire d’agrégateurs spécialisés. Le pouvoir n’est plus seulement dans le contenu publié, mais dans sa capacité à être choisi, repris, interprété par un système automatisé. La réputation devient une affaire d’ingénierie informationnelle.
Publier ne suffit plus : il faut structurer et contextualiser
Dans ce nouveau contexte, publier un communiqué ou une interview ne garantit plus d’exister aux yeux de l’IA. Il faut désormais structurer l’information : titrage explicite, balisage sémantique, identification claire des rôles et des entreprises, cohérence inter-sources. Un profil de dirigeant flou, une biographie incomplète, une parole mal contextualisée sont autant de facteurs de dilution. À l’inverse, un contenu bien écrit, balisé, cohérent avec d’autres sources (presse, réseaux, base institutionnelle) peut suffire à ancrer une identité dans les synthèses génératives.
Mais cette structuration ne peut pas être purement formelle. Comme le montre le baromètre JIN, les dimensions émotionnelles, éthiques, incarnées comptent aussi. Ce sont elles qui permettent à l’IA de produire des réponses différenciées, avec du relief. L’exemple de Veolia, qui a ouvert ses portes à un influenceur pour générer un récit immersif, en est un bon indicateur : le contenu est devenu une source exploitable par l’IA car il cumulait plusieurs qualités ( indexation, lisibilité, incarnation, ancrage dans un site d’autorité). Ce type de démarche n’est pas une anecdote : c’est un nouveau modèle de présence informationnelle.
Contrôler ses sources, une nouvelle souveraineté informationnelle
Cette situation pose une question politique : qui contrôle les sources que les IA utilisent pour construire la réalité ? Si les fournisseurs de modèles sélectionnent leurs corpus de manière partiellement opaque, les entreprises ne sont pas dépourvues de leviers. Elles peuvent documenter activement leurs dirigeants, structurer leurs contenus, publier dans des environnements reconnus, référencer leurs pages avec soin, nourrir des bases ouvertes comme Wikipédia ou des portails spécialisés. Elles peuvent aussi revendiquer un droit de regard sur les usages de leurs contenus par les IA. Mais cela suppose une connaissance de l’écosystème informationnel dans lequel elles évoluent.
Car le risque est double : disparaître faute de visibilité, ou être mal représenté faute de maîtrise. Et ce risque ne concerne plus seulement la communication ou les relations presse, mais aussi la direction générale, la DSI, les juristes et les architectes de données. Il appelle une convergence nouvelle entre contenus, données et gouvernance. Dans un monde où l’IA filtre l’information pour des millions d’utilisateurs, la maîtrise des sources devient une souveraineté discrète mais décisive. C’est désormais là que se joue une part de l’influence, et de la réputation, des entreprises.