Pour comprendre et générer du texte, les grands modèles linguistiques (LLM), ou modèles de langage de grande envergure, utilisent des techniques d'apprentissage profond (une forme d’IA qui utilise des réseaux neuronaux artificiels pour imiter le processus d'apprentissage du cerveau humain) et sont alimentés par d'énormes quantités de données provenant d'Internet.
Les LLM captivent l’attention mondiale depuis quelques temps, notamment depuis le lancement de ChatGPT par OpenAI fin 2022 ; deux mois plus tard, l’IA générative avait déjà attiré plus de 100 millions d’utilisateurs, en faisant l'application grand public à la croissance la plus rapide de l'Histoire. Une montée en puissance qui suscite à la fois excitation et inquiétude quant aux capacités de cette technologie IA.
Les risques associés aux grands modèles linguistiques
Car les LLM ne sont pas sans risques. En début d’année, Sam Altman, PDG d'OpenAI, admettait des lacunes concernant les biais dans le modèle, soulevant des questions sur la sécurité de ChatGPT. Plus récemment, des chercheurs ont découvert que l'utilisation de certaines identités (telles que "une personne malveillante") pour solliciter les LLM générait six fois plus de réponses toxiques et nuisibles.Par ailleurs, les LLM sont conçus pour satisfaire l'utilisateur qui lui demande de générer du texte. Pour ce faire, ils utilisent une méthode d'apprentissage automatique non supervisée alimentée par un vaste ensemble de données aléatoires provenant d'Internet. En conséquence, les réponses fournies ne sont pas toujours précises, ni même simplement vraies. On parle même désormais d’hallucinations lorsque le modèle génère des réponses qui semblent plausibles mais ne reposent pas sur des données factuelles du monde réel.
Cette technologie IA peut également être manipulée par des acteurs malveillants pour lui demander – par exemple – de rédiger un script exploitant une vulnérabilité connue ou de fournir une liste de méthodes pour pirater des applications ou protocoles spécifiques. Bien que ces exemples soient hypothétiques, il est difficile de prévoir toutes les manières dont ces technologies pourraient être exploitées.
Les grands modèles linguistiques dans la sécurité physique
Dans la sécurité physique, les algorithmes d'apprentissage automatique et d'apprentissage profond ne reposent pas aujourd’hui sur une IA générative, mais sur des modèles d'IA conçus pour détecter des modèles et classifier des données. Ils permettent, entre autres, d’accélérer des enquêtes en analysant des vidéos pour y trouver un détail particulier (par exemple, une voiture rouge) ; d’automatiser le comptage de personnes et d’envoyer des alertes sur les seuils d'occupation ou la longueur des files d’attente ; de détecter les plaques d’immatriculation de véhicules recherchés ;ou encore de renforcer la cybersécurité en identifiant et bloquant les logiciels malveillants. Même lorsqu’ils sont supervisés, ces modèles d’IA fournissent des résultats basés sur la probabilité ; il revient donc toujours à l’humain de décider, au final, ce qui est vrai et ce qui ne l'est pas.S’ils ne sont pas présents dans la sécurité physique aujourd’hui, les LLM pourraient être envisagés demain. Les opérateurs de sécurité pourraient en effet, à l’avenir, utiliser un modèle linguistique pour obtenir rapidement des réponses à des questions posées en langage naturel, telles que : « Combien y a-t-il de personnes au 2ème étage ? » ou
« Combien de badges visiteurs ont-ils été émis la semaine dernière ? ». Parce qu’ils sont capables de générer des recommandations, les LLM pourraient également être utilisés pour aider les organisations à élaborer des politiques de sécurité ou à améliorer leurs protocoles de réponse.
L'utilisation des LLM dans la sécurité physique nécessite une grande vigilance
Nous avons vu les biais que présentent les LLM. Pour les utiliser dans la sécurité physique, il convient donc de prendre en compte plusieurs points de vigilance :- Environnement contrôlé. Il est essentiel de faire fonctionner les LLM dans un environnement où les conditions sont rigoureusement gérées et surveillées. Cela implique de définir des paramètres précis pour s'assurer que les réponses produites par les LLM sont cohérentes, fiables et conformes aux normes de sécurité requises pour la sécurité physique.
- Biais et inexactitudes. Même dans un environnement contrôlé, les LLM ne sont pas infaillibles. Ils peuvent produire des réponses biaisées, inexactes ou basées sur des informations erronées. Il est impératif qu’un être humain vérifie et valide les informations générées par ces modèles.
- Protection des données sensibles. L'utilisation de LLM peut impliquer le traitement de données sensibles, notamment des informations sur les employés, les visiteurs, ou d'autres données confidentielles liées à la sécurité physique. Les organisations doivent mettre en place des mesures strictes pour garantir la confidentialité et la sécurité de ces données.
- Prise de décision humaine. Bien que les LLM puissent générer des recommandations, il est essentiel de rappeler que la sécurité physique comporte souvent des enjeux critiques qui nécessitent une prise de décision humaine. Les modèles ne doivent jamais remplacer complètement l'expertise humaine, en particulier dans des situations de vie ou de mort.
- Evaluation continue. Les LLM et l'IA en général évoluent constamment. Les organisations doivent continuellement évaluer et mettre à jour leurs systèmes pour refléter les dernières avancées technologiques et les meilleures pratiques en matière de sécurité.
Par Matthieu Seys, Regional Sales Director France chez Genetec