La sécurisation de l’intelligence artificielle (IA) est au cœur des débats. Moteur de croissance, l’IA est jugée « essentielle » ou « très importante » par 74 % des décideurs pour atteindre leurs objectifs stratégiques et accroître leurs bénéfices (étude 3Gem, décembre 2024). Revers de la médaille, l’IA les expose également à des risques croissants en cybersécurité, conformité et gestion des données, amplifiés
par la GenAI.

Face à ces menaces, la « confiance zéro » pour rétablir la confiance pour tous s’impose. Elle sera d’ailleurs au centre des débats du Forum International de la Cybersécurité (FIC), qui aura lieu à Lille début avril. Car comprendre les décisions des modèles d’IA devient crucial pour renforcer la confiance, comme le souligne le premier rapport sur la sécurité de l’IA publié en janvier 2025.

Face à cet environnement complexe, comment les entreprises peuvent-elles concilier l’adoption stratégique de l’intelligence artificielle avec les impératifs de cybersécurité et de conformité, tout en maîtrisant les risques liés au Shadow AI et aux nouvelles
menaces numériques ?

La confiance zéro, comme pilier de la sécurité de l’IA

Pour les professionnels de la cybersécurité, le concept de « confiance zéro » (Zero Trust) en matière d’adoption d’IA est devenu un véritable mantra. Des infrastructures de sécurité solides sont le fondement de plateformes sécurisées, c'est pourquoi l'objectif principal des RSSI est de s'assurer que l'IA est utilisée correctement et qu’elle soit sécurisée.

Cette approche repose sur le principe selon lequel aucun utilisateur, appareil ou système ne doit être automatiquement considéré comme fiable, même s'il opère au sein du réseau de l’entreprise. Dans l’IA, l’implémentation de la confiance zéro implique une sécurisation à plusieurs niveaux : gestion stricte des identités et des accès (IAM), chiffrement avancé des données, surveillance continue des comportements anormaux et correction proactive
des vulnérabilités.

Dans cette optique, des initiatives comme le Secure AI Framework (SAIF) de Google et les directives de l’Union européenne en matière de réglementation de l’IA (AI Act) cherchent à établir des normes de sécurité minimales. Cet encadrement réglementaire est crucial pour fournir aux entreprises des garde-fous en matière de cybersécurité. Avec l'introduction de la loi européenne sur l'IA, les équipes de sécurité devront intégrer la gestion des risques liés à l'IA et les cadres de conformité dans leurs opérations. En intégrant ces mesures, les entreprises peuvent transformer la sécurité en un levier de confiance et d’innovation.

Shadow AI : quand l’essor de l’IA clandestin en entreprise devient un défi pour la cybersécurité

Malgré le développement du marché de la GenAI, avec des investissements atteignant une valeur de 47,6 milliards de dollars en 2024, l'accès du personnel aux outils et applications approuvés reste faible. Dans un rapport publié en décembre 2024, 72 % des dirigeants de TPE-PME n’utilisent pas ces outils et 10 % les interdisent au sein de leur entreprise par crainte d’une mauvaise utilisation. Pourtant, une étude datant de mai 2023 pointe du doigt le fait que cela n’arrête pas les travailleurs Français, car 68 % outrepassent ces interdictions pour utiliser les IA en cachette dans le cadre professionnel.

Les Français ne sont pas des cas isolés. Les recherches montrent que plus de la moitié
(55 %) des travailleurs du monde entier utilisent des outils d'IA non approuvés pendant leur travail - et 40 % vont même jusqu'à utiliser des outils qui sont totalement interdits. Cela montre à quel point les employés « expérimentent » la GenAI sur leur lieu de travail en utilisant de nouveaux outils non approuvés pour travailler ou collaborer, ce qui constitue une menace galopante pour la sécurité des entreprises.

Car chaque cas d'utilisation de ce Shadow AI s'accompagne de la possibilité d'introduire des informations sensibles de l'entreprise dans un modèle d'IA externe : le danger est la fuite de données. Sans savoir comment ces modèles fonctionnent, les entreprises pourraient les entraîner par inadvertance sur leurs données sensibles.

Pour alimenter en toute sécurité la productivité grâce à l'IA, les organisations ont besoin d'une plateforme de gestion de contenu unique et d'une stratégie d'IA solide. Le Shadow AI devient un problème lorsqu'il y a une lacune dans la stratégie d'IA d'une entreprise et que les employés se sentent limités par les outils et les options d'IA à leur disposition. En leur donnant les moyens de disposer d'outils d'IA sécurisés et conformes, ces employés peuvent au contraire déployer en toute sécurité les dernières innovations dans leurs flux
de travail de contenu.

Vers une IA sécurisée et responsable

Si l’IA est une source d’opportunités pour les entreprises et leurs collaborateurs, son essor s'accompagne de défis majeurs en matière de cybersécurité et de conformité. Face aux risques croissants posés par la GenAI et le Shadow AI, une approche basée sur une
« confiance zéro » apparaît comme une nécessité.

Cela implique, pour les dirigeants, de s’adapter aux nouveaux usages de leurs collaborateurs et de les accompagner grâce à une gouvernance robuste, plutôt que d’interdire l’adoption de ces outils qui est vain. En combinant des infrastructures de sécurité solides, une gestion rigoureuse des accès et une transparence accrue des modèles, les entreprises peuvent transformer les menaces potentielles en opportunités.

L’objectif est clair : faire de l’IA un levier de transformation durable pour des environnements de travail où sécurité, confiance et innovation avancent de concert pour bâtir un avenir numérique plus sûr et plus performant.

Par Lazhar Sehetal, Vice-Président de la région Europe du Sud chez Box