La shadow IA prolifère dans les organisations, les collaborateurs alimentent des outils grand public avec des données sensibles, et la plupart des RSSI gèrent ce sujet sans cadre de référence stabilisé. Le Clusif publie un premier livrable du groupe de travail « Utilisation sécurisée de l'IA en organisation » : un guide de priorisation des premières mesures de sécurité, organisé selon trois postures opérationnelles types, délibérément conçu pour être activable sans transformation lourde et intégrable dans un cadre GRC existant.
Le groupe de travail à l'origine de ce livrable, fondé fin 2025, réunit des RSSI, des juristes, des consultants et des risk managers issus de grands groupes privés, parmi lesquels Sanofi et Suez. Sa composition reflète un choix méthodologique assumé : la sécurisation des usages IA relève simultanément du droit, de la technique, de la gestion des risques et du management des fournisseurs. Aucune de ces dimensions ne peut être traitée de façon isolée. Le document produit par ce groupe s'adresse aux RSSI et responsables cyber confrontés à des situations très hétérogènes, et ne prétend pas constituer un cadre de conformité à l'IA Act ou à une autre réglementation.
La méthodologie de priorisation retenue repose sur quatre critères articulés. Le niveau de maturité IA de l'organisation, traduit par l'absence ou la faiblesse d'une gouvernance et d'un inventaire des systèmes déployés. Le niveau de pression opérationnelle, mesuré à l'aune des demandes métiers et de la multiplication des usages non contrôlés. Le niveau d'urgence et d'exposition au risque, notamment en cas d'incident avéré ou de contrôle réglementaire imminent. Enfin, l'impact rapide et la faisabilité : seules ont été retenues les mesures produisant un effet visible sans nécessiter de refonte de l'existant. Ce cadre de sélection débouche sur trois postures, chacune associée à une séquence d'actions prioritaires distincte.
Poser les fondations avant de déployer des contrôles
Pour un RSSI qui prend en main un périmètre IA peu structuré, le Clusif place la gouvernance avant la technique. La séquence des onze mesures prioritaires de la posture 1 s'ouvre sur la constitution d'un comité de gouvernance IA réunissant le RSSI, le DPO, le juridique, les achats et les directions métiers clés, suivie de la formalisation et de la diffusion immédiate d'une charte d'utilisation. La cartographie des systèmes IA, incluant les outils, les données traitées, les agents déployés et les propriétaires identifiés, n'intervient qu'en quatrième position, après la sensibilisation des collaborateurs.
Ce séquencement traduit une conviction du groupe de travail : déployer des contrôles techniques dans une organisation sans visibilité partagée sur ses propres usages revient à sécuriser un périmètre que personne ne maîtrise encore. Le document souligne par ailleurs que la mise en œuvre de ces mesures n'incombe pas au seul RSSI. Elle suppose l'appui de la direction juridique, du DPO et de la direction informatique, dans une logique de responsabilité partagée.
Shadow IA : inventaire, référencement, blocage des dérives
La posture 2 s'adresse aux RSSI dont l'organisation utilise déjà massivement des outils IA sans contrôle centralisé. Le risque principal identifié est la perte de maîtrise des usages réels, exposant directement l'organisation aux fuites de données et à la non-conformité réglementaire. Le Clusif propose ici trois axes successifs : voir en réalisant l'inventaire complet des outils IA utilisés et fournis, canaliser en référençant et en communiquant les solutions validées, contrôler en instaurant un suivi des usages réels assorti du blocage des accès non autorisés.
Parmi les dix mesures de cette posture, la révision des conditions générales d'utilisation et des clauses contractuelles des fournisseurs IA occupe la cinquième place. Le document attire l'attention sur des paramètres contractuels fréquemment négligés lors de l'adoption d'outils grand public ou de solutions tierces : les modalités de support en cas d'incident, les horaires d'astreinte, la langue d'intervention, les SLA effectifs. Ces paramètres conditionnent directement la capacité de réponse de l'organisation lorsqu'un incident implique un outil IA externe.
En situation de crise, contenir avant de structurer
La troisième posture, qualifiée de « RSSI pompier », correspond à une urgence opérationnelle en cours. La séquence des huit mesures suit une logique de gestion de crise cyber adaptée aux spécificités de l'IA. Contenir d'abord, en activant des contrôles sur les entrées et sorties des systèmes IA concernés. Qualifier ensuite, par une évaluation rapide des usages à risque. Couper les accès impliqués, collecter les éléments d'investigation, puis organiser la communication de crise auprès des parties prenantes.
Deux mesures distinguent cette posture des protocoles de réponse à incident classiques. La réalisation de tests de sécurité IA, incluant des exercices de prompt injection et de jailbreak, intervient en phase de durcissement technique post-confinement. Le RETEX de crise, qui clôt la séquence, constitue le point de bascule vers une posture de gouvernance structurée. C'est à partir des enseignements tirés de l'incident que le RSSI peut amorcer la trajectoire vers la posture 1, en appuyant ses arbitrages sur des faits attestés plutôt que sur des estimations théoriques.
Le Clusif précise que les mesures proposées se situent à un niveau macro délibéré, compte tenu de la rapidité d'évolution des technologies concernées. Leur déclinaison opérationnelle dépend de l'environnement technique disponible dans chaque organisation. Un second livrable du groupe de travail est attendu, portant sur l'évaluation des solutions et des implémentations IA, la sensibilisation des collaborateurs et la gouvernance approfondie de l'IA en organisation.























