L’IA n’est pas une technologie comme les autres y compris au point de vue sécuritaire. Les entreprises peuvent atténuer les périls liés à l’application de l’intelligence artificielle et de l’analyse avancée en adoptant une approche systémique et multidisciplinaire au lieu d’une approche basée sur des règles.

Les bénéfices de l’IA sont plébiscités par les adoptants pour augmenter l’efficacité des décisions, automatiser les processus et répondre aux besoins de personnalisation des relations avec les clients. Dans une enquête réalisée par McKinsey, 80 % des adoptants ont déclaré avoir constaté des améliorations, même modérées, assez rapidement après la mise en service de l’IA.

Cependant, comme c’est le cas pour toute avancée technologique, chacune d’elle crée ses propres risques sécuritaires, et dans le cas de l’IA ceux-ci sont à la hauteur de la sophistication de la technologie et de ses capacités à conditionner le mode de fonctionnement de l’entreprise. Avec l’IA, la cybersécurité devra faire face à une augmentation massive des points d’attaque possibles avec l’IoT, le cloud et les microservices. Dans un environnement de travail et de vie hyperconnectés, avec les smart city et les smart homes, les voitures connectées, les défis sont énormes pour les équipes de sécurité.

Éviter l’intoxication de l’IA par l’injection de fausses informations

L’IA n’est pas une technologie comme les autres et devrait être traitée comme tel du point de vue sécuritaire. Il s’agit non seulement de se défendre contre toute intrusion, c’est la protection conventionnelle, mais aussi d’éviter toute injection d’informations erronées dans l’IA et le ML, afin de fausser ou biaiser les décisions. Et ceci n’est qu’une des possibilités : le plus préoccupant est que sont les attaques encore inconnues.

Les nuisances les plus visibles, comme la violation de la vie privée, la discrimination et la manipulation des systèmes politiques, ne doivent pas occulter le fait qu’il faudra aller au-delà des la protection conventionnelle pour reconnaître les modèles grâce à une approche multidisciplinaire. « Des répercussions désastreuses, y compris la perte de vies humaines, si un algorithme médical d’IA tourne mal, ou la compromission de la sécurité nationale, si un adversaire alimente en désinformations un système d’IA militaire, sont possibles », expliquent les experts de McKinsey dans un article récent.

Tout comme le sont les défis importants pour les entreprises, allant de l’atteinte à la réputation et des pertes financières aux contrecoups réglementaires, aux enquêtes criminelles et à la perte de la confiance du public.

Une approche de la sécurité de l’IA en trois étapes

Dans son étude sur les tendances technologiques pour 2020, Gartner préconise une approche en trois étapes :

  1. Protéger les systèmes alimentés par l’IA. Pour cela, il faut sécuriser les données d’entraînement de l’IA, les canaux de transit des données pour l’entraînement et les modèles de ML.
  1. Exploiter l’IA pour améliorer la défense de la sécurité. Pour cela, utiliser le ML pour comprendre les modèles, découvrir les attaques et automatiser certains aspects des procédures de cybersécurité, tout en augmentant les actions des analystes de la sécurité humaine.
  1. Anticiper l’utilisation néfaste de l’IA par les attaquants. Identifier ces attaques et se défendre contre elles sera un ajout important au rôle de la cybersécurité.

Source : diverses

AUCUN COMMENTAIRE