Face à l'IA générative, faire l'autruche ne sert à rien. Pire, la refuser en bloc sous prétexte qu'elle ne serait pas compatible avec un numérique responsable est encore plus risqué. Pourquoi ? Car elle va débarquer dans nos vies, et si nous ne voulons pas la subir, il nous faut l'accueillir. Si nous ne nous y intéressons pas, nous laissons un boulevard pour que l'IA devienne effectivement "irresponsable".

Prenons notre courage à deux mains, acceptons le changement, et voyons la révolution de l'IA comme une opportunité de réaffirmer nos convictions, de faire de l'IA un levier de nos engagements pour développer des organisations responsables.

Le numérique responsable en action

Revenons à la définition même du numérique responsable que nous propose l'Institut du Numérique Responsable. Le numérique responsable n'est pas passif, il ne se cache pas dans l'inaction. Au contraire, c'est un numérique en action qui affirme des choix forts, et parmi ces choix, celui d'exister et de croire en sa propre valeur et sa capacité à contribuer à la responsabilité sociétale et environnementale des organisations.

Si la sobriété des outils et des usages est un levier d'action majeur du numérique responsable pour adresser l'enjeu environnemental, rappelons qu'il en existe 4 autres : l'accessibilité (inclusivité et durabilité), l'éthique, la résilience et l'émergence de nouveaux comportements. La résilience est en particulier un axe sur lequel nous pouvons agir, grâce à de la transparence et de la diversité.

Exiger la transparence

Accepter le changement commence par lutter contre le déni et sortir de sa zone de confort. Comme pour toute nouvelle technologie, il faut tester pour se faire sa propre opinion : faire ses propres expériences pour, d'une part comprendre les capacités et les limites de l'IA, mais également se renseigner et se poser les questions suivantes :
  • A qui sont envoyées les requêtes ? Où vont les données ?

  • Comment sont-elles traitées ? Comment sont-elles utilisées ?

  • Qui est propriétaire de la technologie ? Quel est le modèle (LLM) utilisé ?

  • Quel en est le coût financier ? Et l’impact énergétique ?

  • Quel est le modèle économique ?

  • Quelle est la conséquence sur mon activité ? En quoi cela est-il utile et apporte de la valeur ?
Il n'est pas toujours possible ni évident d'obtenir des réponses claires : savoir ce qu'on ne sait pas est déjà un progrès. Et pour encourager les législateurs à mettre en place le devoir de transparence, comme le fait déjà dans une certaine mesure l’IA Act, il est possible de soutenir des initiatives telle que celle de l'association Data For Good qui mène actuellement le projet GenAI Impact sur "les impacts environnementaux de l'IA générative".

Permettre la diversité au sein d'un écosystème

La transparence induit naturellement la diversité, car la transparence permet de faire des choix plus avisés. Mais la transparence ne suffit pas. La diversité doit également être techniquement rendue possible et cela passe par une certaine ouverture et de l'interopérabilité.

L’ouverture ne signifie pas forcément open source et open source ne signifie pas pérennité. Il faut creuser, aller au-delà des mots et se méfier des raccourcis ainsi que de l’ "Open-Washing" comme le souligne une étude de l'Université de Radboud au Pays-Bas, sur les différents niveaux d'ouverture des LLM.

La diversité doit être également rendue possible à un niveau "relationnel" des organisations, et cela passe par le développement d'un écosystème d'acteurs qui se retrouvent autour d'ambitions partagées, prêts à collaborer malgré une forme inhérente de concurrence entre eux, et dans une logique de partenariat.

Permettre aux organisations de choisir parmi différents modèles, différents fournisseurs de services, mais également leur donner les moyens d'adapter les produits pour permettre ces interconnexions. C'est le degré d'ouverture qu'on peut exiger dans une démarche de numérique résilient.

Agir dès à présent pour penser le système et la finalité

Aujourd’hui, nous avons l'opportunité d'avoir un impact à un niveau systémique sur l’IA en nous y intéressant dès à présent. Si nous ne la saisissons pas, nous risquons de nous voir imposer un système et de nous retrouver à essayer d'en pallier les limites dans un futur plus ou moins proche.

Et au-delà de s'interroger sur le comment, nous pouvons également nous placer en acteurs du « pour quoi faire ». L’IA Act européen distingue différents niveaux de risque de l’IA et interdit l’utilisation pour les risques inacceptables (comme la notation sociale et l’IA manipulatrice).

Pour le reste, il est probablement impossible de restreindre l'utilisation de l'IA à certaines fins, l'humanité ne se contentant rarement d’un périmètre défini, préférant tester et repousser les limites pour mieux se réinventer. On peut en revanche influer sur ses aspirations, qui sont le reflet des nôtres. Et si on utilisait l'IA non pas générer encore plus de contenus, de bruit dans le paysage numérique, mais pour en avoir autant, de meilleure qualité et peut-être gagner en qualité de vie ?

L'IA nous fait gagner du temps, qu'allons-nous faire de ce temps gagné ? Si l'IA générative semble être le prochain levier de compétitivité pour les organisations, le gain en productivité n'est peut-être pas le seul facteur différenciant à développer, notamment pour les organisations qui se sont dotées d'une politique RSE.

Ces questions n’ont pas de réponses immédiates simples, mais il est essentiel de se les poser pour avoir au moins une chance de voir émerger des éléments de réponse. Dès lors, expérimentez et challengez l’IA générative.

Forgez-vous votre opinion de l'IA générative, et à chaque étape, prenez pour guide la raison d’être de votre organisation et prenez conscience des choix que vous faites. Le numérique responsable invite toutes les organisations à une démarche de "pleine conscience".

Par Hoang-Anh Phan, Directrice Marketing, RSE & Transformation chez Jalios