Imaginez la scène : un collaborateur de votre entreprise, tard le soir, insère un tableau Excel contenant des projections financières dans ChatGPT juste pour obtenir une analyse rapide. L'outil s’exécute et propose une synthèse brillante en quelques secondes. Mission accomplie ! Sauf que ces données viennent peut-être de rejoindre les serveurs d'Open AI à des milliers de kilomètre d’ici. Une licence gratuite, un mauvais usage et le pire peut arriver. L’IA, c’est sérieux. 

Vos équipes utilisent déjà des outils d’IA générative, plus ou moins recommandés

Les chiffres sont vertigineux. ChatGPT compte désormais 800 millions d'utilisateurs actifs hebdomadaires, soit un doublement par rapport à février. L'outil traite plus d'un milliard de requêtes par jour. La moitié des entreprises du Fortune 500 autorisent ChatGPT et on compte des millions d’utilisateurs dans la moitié qui l’interdit. En France, on a appris que plus de 1 000 salariés d’une banque avait créé un compte sur l’outil… pourtant non-autorisé dans ladite banque.  Que la société accompagne le mouvement ou qu’elle tente de le freine, les salariés ont déjà massivement adopté l'IA générative. À la maison, ChatGPT est devenu leur assistant personnel pour tout, de la rédaction d'emails à la planification de leurs vacances. Et lorsqu'ils arrivent au bureau le lundi matin, face à une présentation urgente ou un dossier complexe, ils n'attendent pas que l'IT déploie une solution sécurisée pour se lancer. Ils ouvrent leur navigateur et utilisent ce qu'ils connaissent déjà. Le risque RGPD qui en découle est loin d'être théorique. Open AI a été sanctionné de 15 millions d'euros par l'autorité italienne de protection des données en décembre 2024. Meta s'est vu infliger 390 millions d'euros d'amende pour avoir modifié ses conditions d'utilisation afin de traiter les données sans consentement explicite. Les entreprises qui laissent leurs collaborateurs utiliser des outils non sécurisés s'exposent à des sanctions qui peuvent atteindre 7 % du chiffre d'affaires annuel ou 35 millions d'euros. Ce n'est plus une question de « si », mais de « quand ».

Choisir un outil sécurisé, le déployer et le contrôler

Après un début d’article un peu anxiogène, nous souhaitons aussi rassurer nos lecteurs. Toutes les versions payantes des outils d’IA, et même quelques versions gratuites spécifiques, sont désormais parfaitement sécurisés. Il faut donc en choisir un et l’imposer aux équipes afin d’éviter du shadow IT sur des outils non sécurisés.  Attention à ne pas sacrifier la performance sur l’autel de la sécurité. Prenons le cas d’une entreprise qui déploie sa solution IA interne, moins performante que ChatGPT, Claude ou Copilot, plus lente et avec fonctionnalités limitées. Que se passe-t-il ? Les collaborateurs testent, constatent l’écart de performance avec l’outil qu’ils utilisent à la maison ou déjà au travail, et n’adoptent pas la solution interne pourtant recommandée. La sur-sécurisation crée donc un effet pervers. Au lieu de protéger l'entreprise, elle la met en danger. Les collaborateurs frustrés se tournent vers des solutions non sécurisées et copient-collent des données confidentielles dans des interfaces grand public. Une fois l’outil sélectionné, tout l’enjeu consiste à acculturer puis former vos collaborateurs afin qu’ils bénéficient de toute la puissance de l’IA Generative. Grâce à des formations de qualité, idéalement en présentiel, et une conduite du changement efficace, les salariés qui travaillent avec un ordinateur (20 millions de personnes en France) peuvent espérer gagner entre 1h et 1H30 par jour. Cela représente un gain de productivité de 12% environ, sachant qu’une entreprise augmente en moyenne sa productivité de 0,8% par an en France. Vous avez bien compris, l’adoption réussie de l’IA Generative génère un saut de productivité de 15 année d’un coup !

La gestion des licences, pas seulement un enjeu d’informatique

Dans tout ce schéma, nous sommes passé rapidement sur la question de la gestion très opérationnelle des licences que vous allez acheter pour vos salariés ! On pourrait se dire qu’il s’agit simplement d’un enjeu informatique, mais pas du tout.  D’abord, il faut choisir le bon type de licence sachant que chaque outil dispose de plusieurs plans différents pour les entreprises. Ensuite, il faut les paramétrer finement, par exemple pour faire en sorte que les données de géolocalisation de l’utilisateur ne soient pas absorbées par l’IA. Il faut choisir quels sont les connecteurs autorisés, que l’entreprise juge sécurisés, et ceux qui ne seront pas ouverts aux collaborateurs. Un connecteur, c’est la capacité d’un chatbot IA d’aller chercher et même remplir de la donnée sur un autre outil informatique (drive, CRM, ERP, etc.). Le paramétrage doit être chirurgical : un commercial n'a pas besoin d'accéder aux données RH. Un data analyst a besoin de connecteurs Excel que le service communication n'utilisera jamais. Enfin, c’est aussi une question d’argent. Prenons un cas concret : une entreprise de 1 500 collaborateurs achète 500 licences Microsoft Copilot à 30 dollars par mois, soit 180 000 dollars par an. Six mois plus tard, l'audit interne révèle que seules 200 licences sont réellement utilisées de manière régulière. Le gâchis ? 108 000 dollars par an. Au-delà du paramétrage initial et des paramétrages à faire évoluer en continu, il faut monitorer l’usage pour faire des économies. 

Se faire accompagner dans la gestion des licences

Les outils existent. Il suffit de les mettre en œuvre intelligemment, sans tomber dans l'excès de zèle sécuritaire qui paralyse, ni dans la négligence qui expose. Dans cet enjeu, la gestion des licences est critique.  Pour découvrir comment piloter vos licences IA, sécuriser vos données et maximiser votre ROI, rejoignez notre prochain webinar. Parce qu'il est temps de reprendre le contrôle.
publicité