De nombreux PDG considèrent les cyberattaques comme l’une des plus grandes menaces pour l'économie mondiale au cours de la prochaine décennie. Pour limiter leurs impacts, des entreprises et des éditeurs mettent en avant l’Intelligence artificielle. Mais reposant sur de mauvais algorithmes, des programmes d'IA pourraient poser de sérieux problèmes, préviennent des experts.
Selon les professionnels de l'industrie, la multiplication et la diversité des cyberattaques exigent de s'appuyer sur l'intelligence artificielle pour développer des systèmes de sécurité capables de réagir automatiquement aux menaces.
Selon une étude commandée par Microsoft, 75 % des entreprises interrogées ont adopté, ou envisagent, d'adopter l'IA dans leurs plans de cybersécurité. « L'intelligence artificielle nous permet d'apprendre plus rapidement où se situent les problèmes, dans des situations où il serait difficile pour les humains de traiter toutes les données générées », a déclaré Diana Kelley, responsable de la technologie de la cybersécurité chez Microsoft, dans "Squawk Box", une émission matinale de la chaine américaine CNBC.
Cyberattaque et image d’un chat
L’intelligence artificielle la plus couramment utilisée, repose sur l’utilisation d’algorithmes dans l’optique de déterminer la ou les meilleures solutions face à une attaque informatique ou des signaux plus ou moins faibles et précurseurs d’une tentative d’infiltration du SI.
Mais "c’est plus complexe d’avoir la trace d’une cyberattaque que l’image d’un chat", rappelle le directeur de l’innovation chez Wallix, Henri Binstock. Selon Aarti Borkar, vice-président d'IBM Security, il peut y avoir des erreurs dans trois domaines : le programme, les données et les personnes qui conçoivent ces systèmes d'IA.
La qualité des données a une importance capitale. « Si les données utilisées sont biaisées, l'intelligence artificielle ne comprendra qu'une vision partielle du monde et prendra des décisions basées sur cette compréhension étroite », explique Aarti Borkar.
De la même façon, si les personnes qui conçoivent le programme viennent d'une culture, ou d'un milieu similaire, et partagent les mêmes idées, la diversité cognitive sera faible. Et cette absence d’ouverture d’esprit ne favorisera pas l’émergence de multiples scenarii.
Car la situation pourrait devenir encore plus inquiétante lorsque des cybercriminels profiteront plus « facilement » des avantages de l’IA. L’année dernière, lors de la conférence BlackHat, des chercheurs d’IBM avaient présenté Deep Locker. Ce malware était capable de camoufler sa charge malveillante et de la libérer lorsque la cible était atteinte.
Cette recherche démontrait une efficacité non seulement pour contourner les détections, mais aussi pour atteindre une cible en particulier, permettant une attaque extrêmement ciblée.
Des erreurs de recommandation
De façon plus générale, les craintes concernant les limites de l’IA rejoignent indirectement celles des spécialistes de AI Now, l’un des meilleurs groupes de recherches dans le domaine de l’IA.
« Les systèmes techniques échouent encore souvent et l'erreur humaine peut amplifier cette défaillance. Ces questions de sécurité sont particulièrement importantes lorsque des vies sont en danger », avertit AI Now.
Sans une planification, une évaluation et des stratégies d'intégration adéquates, les erreurs deviennent plus probables dans les systèmes critiques auxquels nous devons faire le plus confiance.
L’organisation AI Now constate qu’il y a un réel fossé entre les concepteurs et les utilisateurs et que les solutions IA qui circulent actuellement sur le marché ne sont pas assez auditées.
En guise d’exemple, AI Now cite le cas d’un programme d’IA qui a fait des erreurs de recommandation de traitement lors d’un essai clinique combiné contre le cancer.
Ce type d’erreurs pourrait aussi concerner la sécurité des Systèmes d’information. L'IA est certainement une technologie utile. Mais du point de vue de la cybersécurité, elle semble mieux adaptée à la surveillance et au contrôle. La meilleure façon d'assurer la sécurité de son organisation n'est-elle pas d’avoir une politique proactive et de sensibiliser les collaborateurs ?
Source : cnbc.com