Une dégradation généralisée de la protection contre les bots plombe les défenses des entreprises, alors même que les flux pilotés par l’IA se multiplient. Moins de 3 % des sites ayant fait l’objet de tests résistent aux attaques les plus élémentaires. À l’ère des agents autonomes, la détection des intentions devient un impératif stratégique.
La plupart des entreprises sous-estiment encore leur exposition aux automatismes malveillants. L’édition 2025 du rapport Global Bot Security Report de DataDome dresse un constat inquiétant : seules 2,8 % des quelque 17 000 sites testés disposent d’une protection complète contre les bots, contre 8,4 % en 2024. Pire, trois sites sur cinq laissent passer tous les vecteurs testés, dont certains parmi les plus rudimentaires (Curl, Fake Chrome, headless browsers). Ce recul s’observe alors même que la nature des attaques se transforme, portée par la prolifération des crawlers IA et la généralisation des agents autonomes capables de simuler le comportement humain.
Le scan de vulnérabilité utilisé par DataDome repose sur un échantillon mondial de 16 948 domaines à fort trafic, hors clientèle existante. Chaque site a été confronté à quatre profils types de bots, du plus simple au plus furtif. Résultat, 61,2 % n’ont détecté aucun de ces profils. À titre d’exemple, les requêtes Curl, équivalent d’un script en ligne de commande, ont franchi les défenses dans 79 % des cas. Les bots plus élaborés, comme ceux camouflés en navigateurs Chrome avec des techniques d’anti-fingerprinting, ont échappé à la détection dans 93 % des cas. Ces chiffres témoignent d’une lacune structurelle dans la posture de défense, qui dépasse le simple manque d’investissement. Leur capacité à identifier un comportement automatisé reste faible, même chez les grandes entreprises.
Contrairement à une idée reçue, la taille n’est pas un facteur protecteur. Les organisations de plus de 10 000 salariés ne présentent que 2,2 % de taux de protection totale. Quant aux sites affichant plus de 30 millions de visites mensuelles, ils sont paradoxalement les moins bien protégés. Le volume d’audience attire les cyberfraudeurs, sans que la sophistication des défenses ne soit dissuasive. Le recours à des solutions périmétriques classiques (WAF, CDN ou outils antifraude) montre ici ses limites.
Les crawlers IA ciblent des interfaces sensibles
La croissance du trafic lié aux modèles de langage confirme un tournant. Chez les clients de DataDome, la part des requêtes générées par des LLM (notamment GPTBot et ChatGPT-User) est passée de 2,6 % en janvier à 10,1 % en août 2025. Rien qu’en août, 1,7 milliard de requêtes émanaient des agents d’OpenAI. Et contrairement aux hypothèses initiales, ces flux ne se contentent pas d’explorer des pages informatives. Les formulaires représentent 64 % des terminaisons visités par ces bots, devant les interfaces de connexion (23 %), les paniers (5 %) et les paiements (2 %). Ces chiffres révèlent une évolution fonctionnelle vers des interactions complexes, avec des conséquences directes sur l'aggravation de la fraude, le trous dans la conformité et la résilience des parcours utilisateurs.
La réponse des sites reste largement formelle. Plus de 88 % des fichiers robots.txt analysés interdisent GPTBot, ce qui en fait l’agent IA le plus bloqué, devant ClaudeBot et Perplexity. Pourtant, cette barrière n’est pas contraignante techniquement. DataDome rappelle que le fichier robots.txt, prévu pour guider les crawlers respectueux, n’a aucune portée en matière de sécurité. Le filtrage des agents IA exige d’autres mécanismes, basés sur l’observation du comportement, la nature des points de terminaison sollicités et la fréquence des actions automatisées.
Une protection partielle posée sur une inefficacité opérationnelle
Le rapport met en lumière un paradoxe fréquent où de nombreux sites disposent d’une protection partielle, ils détectent certains bot, mais sans capacité d’action cohérente. Cette zone grise favorise un faux sentiment de sécurité. Ainsi, les secteurs comme le voyage (56,2 % de protection combinée) ou les jeux d’argent (50,6 %) apparaissent mieux préparés, sans pour autant bloquer les bots avancés. À l’inverse, les services publics, les ONG et les télécoms sont massivement exposés (plus de 73 % de sites sans protection), malgré la criticité de leurs données ou de leurs services. L’exposition des secteurs technologiques eux-mêmes (près de 70 % de sites non protégés) interroge sur la diffusion des bonnes pratiques, y compris chez les éditeurs de solutions logicielles.
Cette hétérogénéité sectorielle encourage les attaquants et renforce l’attractivité des cibles mal protégées. Les campagnes de fraude automatisée reposent sur une logique d’optimisation du rendement. Or les données du rapport montrent que les bots les plus simples continuent à franchir les défenses sans résistance notable. Cette faiblesse structurelle permet aux attaquants de mutualiser leurs outils à l’échelle mondiale, sans adaptation régionale ou sectorielle, réduisant ainsi leurs coûts opérationnels.
L’automatisation malveillante devient agentique
Au-delà des scripts classiques, le véritable bouleversement est d’ordre qualitatif. Les bots de 2025 ne se limitent plus à exécuter des instructions répétitives. Grâce aux capacités décisionnelles des modèles d'IA, ils peuvent interagir avec les interfaces dynamiques, résoudre des Captcha, contourner les empreintes TLS, et modifier leur comportement à la volée. Des kits d’attaque prêts à l’emploi, parfois vendus sous forme de service (Bots-as-a-Service), permettent désormais à des profils peu techniques de conduire des campagnes d’attaque sophistiquées, combinant hameçonnage, exfiltration, création de faux comptes ou achat automatisé d’articles rares.
Dans ce contexte, la question de l’intention devient centrale. Les systèmes de détection doivent passer d’une logique binaire (bot ou humain) à une analyse contextuelle de l’action entreprise. L’agent automatisé est-il là simplement pour extraire le prix d’un billet d’avion, simuler un parcours d’achat frauduleux, tester des mots de passe ou simplement indexer une page ? Cette distinction, invisible aux outils de surface, repose sur une analyse comportementale fine, en temps réel, intégrée à la pile de sécurité applicative.
Détection d’intention et couverture de bout en bout
Le rapport DataDome appelle à une refonte des architectures de protection. Pour contrer les menaces actuelles, bloquer l’accès aux pages de contenu ne suffit plus. Il faut surveiller les points de contact transactionnels, formulaires, connexions, paiements, en intégrant une logique d’analyse du comportement et du contexte. Cette approche suppose une capacité à traiter chaque requête avec une granularité suffisante, à croiser les signaux (résidentiel, fréquence, points terminaux, heuristiques de navigation) et à déclencher des mécanismes de défense adaptés (interstitiels, preuve de travail, challenge JavaScript, etc.).
Selon DataDome, près de deux tiers des sites testés n’utilisent aucun outil de gestion des bots. Et parmi ceux qui en disposent, beaucoup s’appuient encore sur des solutions intégrées aux CDN ou WAF, peu efficaces dans les scénarios réalistes. La présence d’un outil n’est pas un gage de protection. L’étude montre que certains fournisseurs ne détectent que 6 % des attaques testées, bien en deçà du seuil acceptable. Seule une protection en continu, mise à l’épreuve régulièrement par des scans éthiques, permet de valider l’efficacité réelle d’une défense.
En matière de bots, l’impréparation ne se voit pas toujours. Pourtant, elle ouvre la voie à une automatisation malveillante de grande échelle. L’essor des agents IA appelle des mécanismes de défense tout aussi intelligents, capables de détecter non pas simplement qui agit, mais pourquoi. Pour les RSSI comme pour les responsables métiers, l’heure est à une vigilance comportementale étendue à tous les points d’entrée.
















































