Du fait de ses capacités de traitement et d’analyse à grande échelle, l’IA s’est imposée comme une solution d’aide à la détection d’anomalies pouvant indiquer une compromission ou une tentative de compromission. Les experts en cybersécurité et les RSSI en espèrent beaucoup en termes de réduction des faux positifs, de volumétrie et d’accélération des détections, mais aussi pour les aider à assurer la conformité de leur entreprise, ainsi que le recrutement des talents qui font cruellement défaut.
Une étude mondiale menée par Enterprise Strategy Group en collaboration avec Splunk, intitulée « État de la cybersécurité en 2024 : la course à l’exploitation de l’IA », a révélé des tendances significatives dans l’adoption et l’utilisation de l’intelligence artificielle générative dans le domaine de la cybersécurité, du recrutement et de la conformité.
L’étude a recueilli les réponses de 1 650 responsables de la sécurité, dont beaucoup ont signalé une amélioration de la gestion de la cybersécurité par rapport aux années précédentes. Cependant, une course entre les défenseurs et les cyberattaquants pour exploiter l’IA générative est en cours.
L’IA est prioritaire pour 44 % des répondants
Parmi les répondants, 44 % des personnes interrogées ont classé l’IA générative parmi leurs initiatives prioritaires en 2024, dépassant la sécurité du cloud. Pas moins de 93 % des responsables de la sécurité ont déclaré que l’IA générative est utilisée dans leurs entreprises, et 91 % d’entre eux l’utilisent spécifiquement pour leurs opérations de cybersécurité. Cela indique une reconnaissance croissante du potentiel de l’IA dans l’amélioration de la cybersécurité.Toutefois, malgré ce taux d’adoption élevé, 34 % des entreprises ne disposent pas d’une politique complète en matière d’IA générative, et 65 % des participants ont admis avoir du mal à comprendre pleinement les implications de cette technologie. Ce manque de compréhension et de directives claires peut entraîner une utilisation inefficace de l’IA et des risques de sécurité accrus.
Au regard de la conformité, l’IA est également espérée comme une panacée. Avec des exigences réglementaires de plus en plus strictes et des répercussions personnelles potentielles pour les responsables de la sécurité en cas d’infractions, les entreprises espèrent que l’IA les aidera à atteindre le Graal de la conformité.
La conformité prend de l’importance…
Les professionnels de la sécurité sont pleinement conscients que l’environnement réglementaire en constante évolution aura des répercussions sur leur travail, qu’elles soient directes ou indirectes. Par exemple, 87 % d’entre eux admettent qu’ils aborderont la conformité de manière très différente dans un an.Bien que la conformité et la cybersécurité représentent les deux faces d’une même médaille, les priorités du moment pourraient entraîner le sacrifice d’un programme au profit d’un autre. En effet, 86 % des professionnels interrogés affirment qu’ils modifieront leurs budgets pour donner la priorité aux réglementations de conformité plutôt qu’aux meilleures pratiques de sécurité.
« Ces réponses corroborent les résultats de notre rapport destiné aux RSSI d’octobre 2023, dans lequel 84 % des RSSI interrogés expriment leurs préoccupations concernant la responsabilité personnelle en cas d’incidents liés à la cybersécurité », affirment les rédacteurs de l’étude. Dans la même étude, 84 % des RSSI ont déclaré que leurs conseils d’administration ou organes de gouvernance assimilent une sécurité renforcée à la conformité réglementaire plutôt qu’aux mesures traditionnelles de réussite en matière de sécurité.
… dans un environnement réglementaire évoluant…
Cette tendance s’explique par les modifications constantes de la législation, quel que soit le pays ou la région. Aux États-Unis, de nouvelles règles imposent aux entreprises réglementées par la Securities and Exchange Commission (SEC) de divulguer et de décrire tous les incidents de cybersécurité « majeurs » et de partager chaque année des informations sur leurs programmes de gestion des risques. Le non-respect de cette directive peut entraîner de lourdes sanctions financières, des poursuites judiciaires, voire des peines d’emprisonnement pour les dirigeants.Dans l’Union européenne, la directive NIS2 exige que les entreprises mettent en place des équipes appropriées pour répondre aux incidents et des systèmes d’information pour échanger des informations. Les dirigeants peuvent être tenus personnellement responsables en cas d’infraction.
… et de pénurie de personnel qualifié
« Les professionnels de la sécurité se retrouvent ainsi pris entre deux feux, estiment les rédacteurs du rapport. S’ils sous-estiment les dégâts, ils risquent d’être accusés de fraude et de faire face à des poursuites judiciaires. S’ils les surestiment, leurs hypothèses peuvent faire chuter le cours des actions et susciter la méfiance générale du conseil d’administration ».La réglementation est désormais un élément incontournable de la stratégie de sécurité. Les exercices de simulation peuvent aider les entreprises à identifier les lacunes, tout en démontrant aux autorités de régulation qu’elles s’engagent dans la bonne voie.
Enfin, une des motivations clés derrière l’adoption rapide de l’IA générative est la perception qu’elle offre des avantages significatifs en matière de recrutement et de gestion des talents en cybersécurité. Selon l’étude, 86 % des responsables de la sécurité estiment que l’IA générative pourrait leur permettre d’embaucher davantage de talents débutants pour combler les déficits de compétences, tandis que 58 % pensent que cette technologie accélérera l’intégration des jeunes talents.
De plus, une grande majorité des professionnels de la cybersécurité estiment que l’IA générative peut améliorer la productivité des équipes en permettant aux professionnels chevronnés de se concentrer sur des tâches plus complexes et en automatisant les processus répétitifs.