L’IA générative dans les entreprises soulève des inquiétudes en matière de sécurité et d’éthique. Même si les dirigeants ont du mal à comprendre et à résoudre les problèmes de sécurité liés à l’utilisation de l’IA générative, ils devront quand même mettre en place des mesures pour gérer les risques liés à cette technologie.

  ChatGPT est devenu accessible au public en novembre 2022 et a rapidement attiré plus d’un million d’utilisateurs en seulement quatre jours. Il rentrera dans l’histoire comme le premier modèle d’IA à avoir ouvert le marché et popularisé l’IA générative auprès du grand public. Ce n’est qu’un début, mais prédire comment l’IA générative pourrait évoluer quelques mois après la sortie historique de ChatGPT est difficile. 

  On peut toutefois inférer que les interactions entre l’homme et la machine devraient s’intensifier, à mesure que les utilisateurs améliorent leur maîtrise des invites, avant que le langage naturel ne devienne la langue vernaculaire de la collaboration entre l’homme et les machines. La perspective est attrayante, mais les implications éthiques, sociales et sécuritaires augmenteront proportionnellement à l’usage de cette technologie. La question est brûlante dans les entreprises, terrorisées à l’idée de faire la une des journaux pour un biais discriminant.

  La crainte du Shadow AI

  Une fois de plus, les dirigeants de la technologie et de la sécurité se trouveront à un tournant crucial, car une adoption rapide des modèles de langage génératif et des grands modèles linguistiques (LLM) est porteuse de risques, non seulement de biais, mais aussi de fuites d’informations stratégiques. Car, les employés n’hésitent pas à faire appel à cette technologie dès à présent, dans ce qui a été appelé le Shadow AI.

  Dans un rapport intitulé « The Generative AI Tipping Point », qui signifie le point de bascule de l’IA générative, Extrahop, l’éditeur de Reveal(x) 360, une plateforme de détection et de réponse réseau (NDR), révèle que les entreprises ont du mal à comprendre et à résoudre les problèmes de sécurité liés à l’utilisation de l’IA générative par les collaborateurs. Pas moins de 73 % des répondants indiquent que les employés de leur organisation utilisent occasionnellement ou fréquemment des outils de génération d’IA ou des LLM. Ce chiffre devrait encore augmenter à mesure que les pressions économiques et concurrentielles poussent les organisations à explorer de nouvelles applications d’IA.

  La France est à l’avant-garde de l’utilisation de l’IA

  En France, la ruée sur l’IA est une réalité. Le taux d’adoption y est le plus élevé (85 % utilisent l’IA fréquemment ou parfois), tout comme la confiance dans la sécurité (98 %). Dans l’ensemble, et malgré l’écrasante confiance de 82 % des répondants dans les mesures de sécurité actuelles de leur organisation pour se protéger contre les menaces liées aux outils de génération d’IA, 74 % prévoient d’investir dans des mesures de sécurité pour l’IA générative au cours de la prochaine année. Ce taux est de 96 % pour la France. 

  Les organisations françaises sont également celles qui ont pris le plus de mesures pour régir les outils d’Al en interne : 58 % ont investi dans une technologie de surveillance, 60 % disposent actuellement d’une politique dictant la manière dont les employés peuvent utiliser l’Al en interne, 59 % proposent des formations sur l’utilisation correcte des lA et 45 % ont formellement interdit toute lA. C’est également en France que la réglementation est la plus soutenue, avec 80 % des entreprises convaincues que la loi doit encadrer les usages.

  La crainte des réponses inexactes ou absurdes

  Malgré le niveau élevé d’adoption par les employés, les dirigeants nourrissent des inquiétudes quant à cette technologie. La principale préoccupation des participants à l’enquête est la réception de réponses inexactes ou absurdes, suivie de l’exposition d’informations personnellement identifiables et les violations de la conformité qui y sont associées. Les préoccupations concernant les biais dans ces outils arrivent en quatrième position. Il est à noter que près d’un tiers des organisations des répondants ont interdit complètement l’utilisation d’outils d’IA en raison des risques, tandis que la moitié a investi dans des technologies pour en surveiller l’utilisation.

  Un autre thème notable qui émerge des résultats de l’enquête est la dissonance entre certains chiffres. Malgré une interdiction de l’utilisation de l’IA générative dans une organisation sur trois (33 %), seuls 5 % des répondants ont déclaré que leurs employés ne les utilisaient jamais. L’écart entre ces deux chiffres est surprenant : en supposant que les interdictions soient efficaces, ces deux pourcentages devraient être plus proches, voire égaux. 

  Les éditeurs prennent des mesures pour augmenter la confiance

  Une autre incohérence frappante est le haut niveau de confiance dans la défense contre les menaces liées à l’IA (près de 82 %), malgré le fait que 50 % des répondants ne disposent pas de la technologie nécessaire pour surveiller l’utilisation de ces outils par les employés. Certaines entreprises, même si elles sont minoritaires, proposent une formation des utilisateurs (42 %) et des politiques de gouvernance (46 %). Avec un peu plus d’un tiers des répondants exprimant une grande confiance dans leur sécurité et un nombre similaire signalant que leur organisation a interdit l’utilisation de l’IA, cela pose la question de savoir si les interdictions ont conduit à une surestimation de la confiance.

  De leur côté, les éditeurs prennent des mesures pour augmenter la confiance dans les outils d’IA. OpenAI a introduit une version entreprise de ChatGPT qui n’utilise pas les contributions des utilisateurs pour former son modèle, ce qui atténue les préoccupations liées à la perte de propriété intellectuelle et à l’exposition. De son côté, Microsoft vient d’annoncer Azure AI Content Safety, qui permet aux entreprises de détecter et de filtrer, en temps réel, les contenus nocifs potentiellement créés par des IA génératives en entrée et en sortie. L’outil permet de gérer les contenus générés par l’IA, de s’assurer qu’ils respectent le cadre d’utilisation fixé par les clients, et de signaler rapidement les contenus problématiques aux modérateurs humains.