Alors qu’une intelligence artificielle fait son entrée dans un gouvernement national, le débat public dévie vers une querelle symbolique sur la féminisation des avatars numériques. L’épisode Diella, censé ouvrir une réflexion sur la gouvernabilité des algorithmes, illustre au contraire une incapacité à penser les transformations structurelles en cours. Pendant que le monde avance, nous débattons dans le vide.

Le 21 septembre dernier, le gouvernement albanais annonçait la nomination de Diella, une intelligence artificielle, au poste de ministre chargée des marchés publics. Cette IA aura pour mission de contrôler l’impartialité des appels d’offres et de repérer les conflits d’intérêts. Cette expérimentation radicale mériterait un débat rigoureux sur la responsabilité juridique, la souveraineté des données ou la transparence algorithmique. Pourtant, l’un des premiers échos médiatiques notables est une tribune publiée sur The Conversation par Sylvie Borau, professeure en marketing éthique à TBS Education, dénonçant le « piège de la féminisation des IA ». Une réaction symptomatique d’un débat déconnecté.

Mobilisant une grille d’analyse issue des travaux sur les stéréotypes publicitaires et les figures genrées, cette tribune interprète l’avatar féminin de Diella comme un prolongement des biais sexistes hérités de Siri, d’Alexa ou de Sophia. Or, transposer ces codes au cas d’une IA investie d’une fonction ministérielle revient à ignorer ce qui distingue radicalement cet usage : l’intégration d’un système algorithmique dans l’appareil d’État. Le choix d’un visage ou d’un prénom n’est pas le cœur du sujet. Ce qui importe, c’est le déplacement inédit du pouvoir décisionnel vers une entité non humaine.

Une IA ministre : ce que le débat devrait interroger

Que l’on adhère ou non à l’initiative albanaise, elle pose des questions inédites : qui rédige les règles d’éligibilité des appels d’offres ? Qui audite les modèles d’analyse ? Que se passe-t-il en cas de litige, de contestation ou de défaillance ? Quels garde-fous sont prévus contre les effets de bord algorithmiques ou les manipulations de données d’entrée ? Et surtout : quel est le statut juridique et politique d’un tel agent dans la chaîne de décision ?

Ces questions ne relèvent ni du genre ni de l’esthétique de l’avatar. Elles touchent à la répartition du pouvoir entre institutions humaines et systèmes computationnels. L’affaire Diella aurait dû ouvrir un débat sur les architectures de gouvernance hybride, les mécanismes de reddition des comptes algorithmique, et l’élargissement du contrôle démocratique aux modèles d’IA. En lieu et place, on préfère ressasser les vieilles lunes liées à l’anthropomorphisme ou aux stéréotypes de genre, comme si l’enjeu central était l’iconographie du visage de Diella.

Le luxe intellectuel de l’Occident face à l’industrialisation mondiale de l’IA

La crispation sur le sexe des robots n’est pas anodine : elle révèle une tendance à surestimer les symboles et à sous-estimer les dynamiques systémiques. Tandis que l’Inde industrialise ses interfaces citoyennes dopées à l’IA, que les pays du Golfe injectent des modèles prédictifs dans leurs systèmes d’allocation de ressources, ou que la Chine teste des mécanismes algorithmiques dans la justice commerciale, une partie du débat européen tourne à vide autour de l’éthique des formes. L’obsession pour la représentabilité masque un désintérêt croissant pour la matérialité du pouvoir algorithmique.

En somme, alors que l’IA redéfinit les leviers de l’État moderne, certains en sont encore à interroger le genre de la voix qui les avertira d’un dépassement budgétaire. Ce décalage n’est pas seulement intellectuel, il est stratégique. Il contribue à un retard collectif dans la compréhension des modèles de gouvernance algocentrée, et affaiblit les capacités d’intervention critique sur les architectures décisionnelles réelles. C’est là que se jouent les enjeux de la démocratie assistée par l’IA.

Un débat civilisationnel en friche

Il ne s’agit pas ici de défendre naïvement l’expérimentation albanaise. Mais de constater que son potentiel heuristique est noyé sous des indignations qui relèvent plus de l’effet de manche que de l’analyse. Poser qu’une IA peut administrer une fonction publique, c’est reconfigurer la chaîne de légitimité, introduire un tiers non humain dans le contrat social, et déplacer la question du pouvoir du politique vers le technique.

Ce déplacement exige une réponse adulte : cadre juridique, procédures de transparence, auditabilité des modèles, scénarios de contrôle, dispositifs de révocation. À défaut de construire cette réponse, nous nous enfermons dans une critique mimétique, qui reconduit les dichotomies homme/femme, humain/machine, visible/invisible, au lieu de produire une pensée institutionnelle adaptée au nouveau régime d’action que l’IA inaugure. Il est temps d’interroger sérieusement ce que signifie déléguer des pans de souveraineté à des systèmes autonomes. Et d’arrêter de se demander de quel sexe ils seraient. En somme, lorsque le gouvernement albanais envisagera de confier d’autres postes stratégiques à des intelligences artificielles, il pourra capitaliser sur l’expérience acquise avec “Diella”. Pendant ce temps, nous aurons consacré notre matière grise à débattre du sexe des algorithmes, plutôt qu’à en gouverner les effets.