Selon une étude Grand ViewResearch, la taille du marché mondial de l’IA appliquée à la cybersécurité devrait atteindre les 93,75 milliards de dollars en 2030, pour un chiffre évalué à 16,48 dollars en 2022. Cela signifie que le taux de croissance annuel est évalué à 24,3 %. Il faut bien le reconnaître : Si certains professionnels de l'informatique s’opposent à l’IA en raison de l’engouement actuel, ce n'est qu'une question de temps avant que celle-ci ne soit intégrée dans de nombreux processus opérationnels quotidiens, y compris dans les contrôles de cybersécurité.

Quels mythes entourent l’IA ? Comment les DSI et RSSI peuvent-ils en tirer le meilleur parti en matière de décision ? Alors que la percée de cette technologie est relativement récente, il est essentiel de comprendre les implications et les défis réels liés à son automatisation pour en tirer le meilleur parti face aux cybercriminels.

Mythes et réalités de l'automatisation

L’idée selon laquelle l'IA remplacera tous employés est un mythe. Même si cela était possible, notre société actuelle n'est pas prête à faire ce saut. Imaginons le scénario suivant : un avion prêt à décoller sans qu’aucun pilote humain n'entre dans le cockpit. Il y aurait sans aucun doute une révolte à bord, les passagers exigeant la présence d'un pilote pendant le vol. Aussi efficace que soit la fonction de pilotage automatique, elle a ses limites, les passagers étant ainsi rassurés par la présence d’un humain aux commandes.

En effet, il n'y a pas eu de réduction du personnel humain à l'époque de la révolution industrielle. Si les machines ont pris en charge des éléments du travail manuel, elles n'ont pas remplacé les humains eux-mêmes. Au contraire, les elles ont plutôt apporté davantage d'efficacité, de prévisibilité et de cohérence au processus de fabrication. En réalité, de nouveaux emplois et même de nouvelles industries exigeant de nouvelles compétences et une plus grande diversité ont vu le jour. De la même manière, l'IA va apporter de l'efficacité, de l'évolutivité et de la précision aux processus d'entreprise, et créera également de nouvelles opportunités puis transformera le marché du travail. En d'autres termes, les entreprises auront toujours besoin d’employés de cybersécurité, mais leurs compétences seront améliorées grâce à l'assistance de l'IA.

Une autre idée fausse à retenir est celle que l'automatisation de l'IA réduira inévitablement les coûts. Cette notion semble familière car elle a été évoquée à propos du cloud il n'y a pas si longtemps. Les organisations qui ont migré leurs centres de données vers le cloud ont constaté que, bien que la structure des coûts OPEX du cloud présente des avantages par rapport aux dépenses CAPEX traditionnelles, les coûts finaux sont similaires pour les grands environnements ; en partie parce que les systèmes les plus sophistiqués nécessitent plus de personnel qualifié (et coûteux). De même, l'automatisation modifiera la répartition des coûts, mais pas les coûts globaux.

Enfin, une solution de sécurité entièrement automatisée et pilotée par l'IA est parfois considérée comme un objectif souhaitable. Il s'agit pour l’instant d’une utopie qui soulève des questions de confiance et d'auditabilité. Que se passe-t-il si cette automatisation fonctionne mal ou est compromise ? Comment vérifier que les résultats sont toujours conformes aux objectifs de l'entreprise ? Nous n'en sommes qu'aux premiers stades de ce nouveau paradigme automatisé de l'IA, et la question de l’exploitation de cette automatisation possible un jour du point de vue de la sécurité n’est pas encore explicite.

Comment savoir ce qu’il faut automatiser

Certains processus se prêtent mieux que d'autres à l'automatisation, et pour déterminer lesquels, il existe trois points principaux connaître :
  • Le processus est répétitif et prend du temps lorsqu'il est exécuté manuellement ;
  • Le processus est suffisamment bien défini pour être transformé en algorithme ;
  • Les résultats du processus sont vérifiables, de sorte qu'un être humain peut déterminer si quelque chose ne va pas.
Les équipes dédiées à la cybersécurité, précieuses dans les entreprises, ne devraient pas être occupées à examiner les logs de sécurité, à corriger les mauvaises configurations ou à interpréter les alertes métriques définies. En les dotant d'outils de sécurité pilotés par l'IA, leur visibilité sera accrue, leur compréhension des différentes menaces améliorée et leur efficacité face aux attaques renforcée.

Plus généralement, il suffit de voir comment les équipes sportives professionnelles investissent dans la technologie pour améliorer les performances de leurs athlètes. De cette même manière, les entreprises doivent fournir à leurs équipes de sécurité les outils automatisés dont elles ont besoin pour améliorer leurs performances. Par exemple, la menace interne est un risque important, mais il est pratiquement impossible de surveiller chaque utilisateur de l'entreprise. Les solutions basées sur l'IA peuvent être beaucoup plus efficaces pour réduire ce risque. En effet, l'analyse du comportement des utilisateurs et des entités (UEBA) peut permettre de repérer des changements subtils dans les schémas d'accès aux données d'un utilisateur et des différences entre son comportement et celui de ses pairs. Cela peut signaler un risque potentiel nécessitant une intervention rapide.

La chasse aux menaces est un autre domaine dans lequel l'IA peut améliorer les capacités d’une équipe à un tout autre niveau. Les solutions automatisées peuvent identifier avec plus de précision les traces d'attaques qui ont pu être déjouées par les mécanismes de protection et les comparer aux renseignements sur les menaces. Ces traces peuvent être le signe d'une attaque plus importante auxquelles les entreprises peuvent mieux se préparer.

ChatGPT, Bard et des milliers d'autres nouvelles applications étonnantes donnent aux cadres la possibilité d'expérimenter l'IA en action. En collaboration avec leurs équipes de sécurité, ils peuvent explorer les applications potentielles de cette technologie. Mais au lieu de se lancer à l’aveugle, il est essentiel d'évaluer minutieusement les processus qu'il est judicieux d'automatiser. Cette diligence raisonnable aidera les responsables informatiques à s'assurer que les risques d'une nouvelle technologie proposée ne dépassent pas ses avantages.

Par Ilia Sotnikov, Security Strategist chez Netwrix