Les bots sont de plus en plus utilisés pour automatiser certaines tâches récurrentes ou prendre en charge des interactions simples. Malheureusement, ces technologies facilitent également la vie des cyber-malfaiteurs. Quelle stratégie de sécurité mettre en œuvre pour différencier les programmes d’automatisation utiles des logiciels malveillants ? Chatbots, assistants virtuels, solutions de Robotic Process Automation (RPA) ou d’extraction de contenu se répandent rapidement. Les entreprises utilisent ces technologies d’automatisation pour accélérer leurs processus et décharger leurs employés de tâches à faible valeur ajoutée. Néanmoins, des outils très similaires sur le plan technique sont utilisés par les pirates informatiques pour mener des cyberattaques ou espionner des concurrents.

Un arsenal de bots à la disposition des cybercriminels et fraudeurs

Ces bots malveillants servent notamment à réaliser des attaques par déni de service (DDos), à travers des réseaux de bots (botnets) accessibles à faible coût (4 US $ de l’heure selon le site SecureList de Kaspersky). Ils peuvent également être utilisés pour des attaques visant à collecter des identifiants et mots de passe, afin de prendre ensuite le contrôle des comptes. Certains bots permettent de voler des éléments de propriété intellectuelle d’une entreprise (logos, textes), exploités ensuite pour des attaques de hameçonnage. D’autres sont appréciés des fraudeurs pour effectuer des achats en grande quantité sur les billetteries et sites de vente en ligne, des ressources ensuite revendues plus cher aux consommateurs. Enfin, les bots facilitent la veille concurrentielle sur grande échelle.

Des démarches de sécurité classique peu adaptées à ce type de menaces

Avec les progrès de l’intelligence artificielle, différencier les actions effectuées par des humains de celles exécutées par les bots va devenir plus difficile. Par ailleurs, pour contrer ce type de menaces, il faut non seulement être en mesure d’identifier des actions effectuées de manière automatisée, mais aussi être en capacité de distinguer les bots malveillants des autres. Dans ce contexte, les politiques de sécurité classiques, souvent encore basées sur le filtrage des adresses IP, montrent leurs limites. Inversement, des solutions trop restrictives risquent de pénaliser les entreprises en bloquant également les bots utiles. Six mesures pour filtrer intelligemment les bots L’éditeur F5 propose six mesures à mettre en place pour aider les organisations à trouver le bon équilibre :
  1. Utiliser les identités et la réputation pour catégoriser et hiérarchiser le trafic humain par rapport à celui des bots.
  2. Créer des règles d’utilisation acceptable des bots pour faciliter l’interaction et l’exploitation des bots inoffensifs et gérer leur impact sur les services.
  3. Examiner et renforcer les processus opérationnels pour gérer plus efficacement les problèmes liés à la fraude, le but étant d’inciter les fraudeurs à se rabattre sur des cibles plus faciles.
  4. Consulter les informations disponibles sur les menaces pour déterminer le risque d’attaque et organiser la réponse en conséquence.
  5. Déployer un pare-feu applicatif (WAF) complet et flexible pour réduire et bloquer le trafic indésirable de façon intelligente (détection proactive de bots, analyse des comportements, chiffrement des formulaires…)
  6. Utiliser des outils de gestion du trafic qui s’appuient sur le Machine Learning. L’objectif est de développer et d’intégrer rapidement un plan d’atténuation des risques pour contrer les nouvelles menaces en constante évolution.
Source : livre blanc F5

AUCUN COMMENTAIRE