En France, 71 % des marketeurs utilisent l’IA pour produire des contenus, mais 81 % reconnaissent diffuser des campagnes génériques et 55 % peinent à répondre aux messages clients dans des délais satisfaisants. Ce paradoxe traverse la dixième édition du State of Marketing de Salesforce : l’IA est adoptée, les attentes des consommateurs ont profondément évolué, et pourtant, la majorité des équipes marketing opère encore selon une logique de diffusion de masse.

L’étude, conduite auprès de 4 450 décideurs marketing dans plusieurs grandes régions mondiales entre octobre et novembre 2025, met en évidence un décrochage entre la maturité des outils disponibles et la capacité des organisations à les exploiter pleinement. En France, 82 % des marketeurs constatent que leurs clients attendent désormais de véritables échanges bidirectionnels avec les marques, avec la possibilité de répondre à un message marketing et d’obtenir une réponse réelle, contextualisée, en temps utile. Pourtant, 55 % d’entre eux reconnaissent être incapables de répondre rapidement, faute d’accès au contexte nécessaire. Cette incapacité résulte d’une architecture de données fragmentée qui prive les équipes des informations dont elles auraient besoin pour personnaliser leurs réponses.

Bertrand Garnier, vice-président Cloud Sales de Salesforce France, résume la situation avec une formule qui mérite attention : selon lui, les entreprises disposent aujourd’hui de la technologie la plus puissante de l’histoire pour envoyer encore plus de messages unidirectionnels génériques, toujours plus rapidement. L’étude chiffre précisément cette réalité. Le principal usage de l’IA chez les marketeurs français est la personnalisation du contenu, ce qui traduit une ambition légitime. Mais 97 % des répondants rencontrent des obstacles à cette personnalisation, et les problématiques liées aux données sont les plus fréquemment citées.

Les silos de données, premier obstacle

L’étude établit un lien direct entre la qualité de l’infrastructure de données et la capacité à engager des conversations personnalisées. Seuls 56 % des marketeurs français déclarent avoir accès aux données du service client, 56 % aux données commerciales et 45 % aux données issues du commerce en ligne. Cette fragmentation signifie qu’une majorité d’équipes marketing opère sans visibilité sur l’historique relationnel complet du client, ce qui rend toute forme de personnalisation réelle structurellement impossible, quelle que soit la sophistication du modèle d’IA utilisé en aval.

Les données mondiales de l’étude quantifient l’avantage concurrentiel que procure une infrastructure unifiée. Les équipes marketing ayant atteint un niveau satisfaisant d’unification de leurs données ont 42 % plus de chances de répondre régulièrement aux clients que celles dont les sources restent fragmentées. Elles sont également 60 % plus susceptibles de déployer des agents IA pour passer à l’échelle. Sur la zone EMEA, les marketeurs utilisant l’IA et bénéficiant de données unifiées se déclarent satisfaits de leur capacité à connecter les différents points de contact dans une proportion de 75 %, contre 62 % pour ceux qui n’ont pas adopté l’IA. Garnier en tire une conclusion directe : ce qui distingue les gagnants n’est pas le modèle utilisé, tous les marketeurs ayant accès aux mêmes modèles, mais la capacité à activer les bonnes données au bon moment.

L’IA redessine les parcours de découverte

Au-delà du marketing relationnel, l’étude documente une transformation plus profonde des comportements d’achat qui menace directement le modèle traditionnel de génération de demande. Une recherche Google sur deux affiche désormais un résumé généré par l’IA, court-circuitant les sites des marques avant même que le consommateur n’ait eu l’occasion de s’y rendre. Les LLM sont de plus en plus consultés pour orienter les décisions d’achat. Lors des fêtes de fin d’année 2025, l’IA et les agents ont contribué à générer 20 % des commandes mondiales, soit 262 milliards de dollars de ventes, selon les données Salesforce.

Cette évolution redéfinit le périmètre des équipes marketing françaises. En France, 89 % des répondants constatent que l’IA fait grimper les attentes des consommateurs, et 87 % indiquent que l’IA transforme leur stratégie de référencement naturel. La grande majorité, soit 88 %, ont déjà commencé à optimiser leurs contenus pour les réponses générées par IA sur des plateformes comme ChatGPT ou Google AI Overview. Cette pratique, désignée sous le terme d’Answer Engine Optimization, traduit une réorientation stratégique : l’enjeu n’est plus seulement d’apparaître dans les résultats de recherche traditionnels, mais d’être cité et synthétisé par les moteurs de réponse, sous peine d’invisibilité. Les marketeurs les plus performants sont 2,2 fois plus susceptibles que les moins performants d’avoir déjà adapté leur stratégie à ces nouveaux moteurs.

Le marketing agentique, horizon ou promesse hâtive ?

L’étude positionne le marketing agentique comme la prochaine évolution structurante du secteur, un marketing qui engage de véritables dialogues contextualisés avec les clients, en temps réel, sur l’ensemble des canaux. Quatre-vingt-quatre pour cent des marketeurs français se déclarent prêts à faire confiance à l’IA pour répondre aux clients et passer à l’échelle. Cet enthousiasme déclaré coexiste cependant avec les obstacles documentés par l’étude elle-même.

L’étude signale par ailleurs une ambiguïté méthodologique qu’il est honnête de relever : les acteurs qui utilisent des agents IA déclarent un niveau de satisfaction plus élevé quant à leur accès transversal aux données, mais il n’est pas clairement établi si le déploiement d’agents les a conduits à unifier leurs données en amont, ou si les agents ont eux-mêmes contribué à améliorer la connectivité entre les systèmes. Cette distinction est importante pour les directeurs marketing et les CDO qui envisagent de déployer des agents. La question de la gouvernance et de la qualité des données doit être traitée préalablement, et non comme une conséquence attendue du déploiement. Les organisations qui aborderont cette transition sans résoudre d’abord leur architecture de données, y compris le volet réglementaire, risquent de reproduire, à l’échelle agentique, le même paradoxe que documente l’étude aujourd’hui.