Une équipe de chercheurs a mené une expérimentation sur l’IA, simulant le rôle de PDG dans un environnement économique complexe. Les résultats, surprenants à bien des égards, révèlent que l’IA est performante en temps normal, mais s’est fait licencier en temps de crise.

Pour préparer l’IA à de potentiels déploiements opérationnels dans des fonctions de haut niveau, il est indispensable de la confronter à des scénarios complexes incluant des variables imprévisibles, comme des crises géopolitiques, des changements réglementaires soudains, des effondrements de la demande ou des chocs de chaîne d'approvisionnement. Car, pour mesurer le potentiel de cette technologie émergente, les spécialistes estiment qu’il est important de multiplier les tests dans des environnements simulés, qui reproduisent de façon réaliste la complexité des situations rencontrées sur le terrain. L'objectif est de l'exposer aux aléas et à l'incertitude caractéristiques des environnements économiques réels.

Cette nécessité découle du fait que jusqu’à présent la majorité des évaluations des IA se sont concentrées sur des tâches délimitées : analyse prédictive, gestion des stocks, optimisation des processus. Bien qu’excellentes pour accomplir ces missions, les IA peinent dès que le contexte bascule dans l’instablilité. Dans un contexte économique et stratégique, ces disruption inopinées sont appelées « cygnes noir » en référence à l’ouvrage Le Cygne noir : La puissance de l'imprévisible (2007), du philosophe et statisticien Nassim Nicholas Taleb. Ils ont pour caractéristiques d’être imprévisibles, rares et à fort impact, et bouleversent les équilibres du marché. L’irruption pandémique de 2020 en est
un excellent exemple.

Une expérience inédite pour évaluer l’IA en tant que PDG

C’est le but de l’expérience, menée entre février et juillet 2024 par la startup britannique Strategize.inc, et dont rend compte un article de Harvard Business Review, la revue spécialisée dans la gestion, la stratégie et le management. L’expérience a rassemblé
344 participants, dont des étudiants d’universités d’Asie centrale et du Sud, ainsi que des cadres supérieurs d’une banque sud-asiatique. Objectif : évaluer le potentiel de l’IA pour prendre des décisions au plus haut niveau d’une entreprise, en la confrontant à des humains dans un environnement simulé représentant l’industrie automobile américaine.

Le terrain de simulation était composé d’un jumeau numérique de ce secteur, basé sur des données réelles de ventes de voitures, d’évolutions du marché, de stratégies de prix et d’influences économiques majeures, dont les effets de la pandémie de 2020. Chaque participant, y compris GPT-4o, le modèle d’IA développé par OpenAI, incarnait un PDG naviguant à travers plusieurs cycles financiers où il fallait équilibrer les parts de marché, la rentabilité et la résilience. Le tout en faisant face à des événements imprévus. Le défi principal consistait à maximiser la valeur boursière tout en évitant de se faire licencier par le conseil d'administration virtuel du jeu. Les résultats de GPT-4o étaient ensuite comparées aux deux meilleurs étudiants et aux deux cadres ayant obtenu
les meilleurs résultats.

L’IA surpasse les humains... mais se fait licencier plus vite

Les résultats sont sans appel : GPT-4o a surpassé les humains dans presque tous les indicateurs de performance. Grâce à sa capacité à traiter des masses de données complexes et à concevoir des produits avec une précision quasi chirurgicale, il a réussi à anticiper les signaux du marché et à affiner ses stratégies mieux que ses homologues humains. En seulement quelques tours, l’IA a atteint un niveau de rentabilité et de part de marché que les étudiants et cadres les plus performants n’ont atteint
qu’après plusieurs cycles.

Mais cette éclatante victoire n’a pas éclipsé les carences de l’IA. GPT-4o a été licencié plus rapidement que les humains. Le modèle a montré ses limites face aux « cygnes noirs », qui redéfinissent soudainement les priorités d’une entreprise. Là où les meilleurs étudiants ont adopté des stratégies prudentes, évitant les contrats rigides et minimisant les risques d’inventaire, l’IA est restée confinée dans une logique d’optimisation à court terme. Elle a continué à maximiser agressivement la croissance et la rentabilité, ce qui l’a rendue vulnérable aux chocs de marché, entraînant des décisions qui, dans un contexte réel, auraient été désastreuses.

En d’autres termes, GPT-4o excelle dans un environnement stable, mais perd pied dès lors que le cadre devient incertain. Les étudiants et cadres humains, bien qu'ils aient mis plus de temps à atteindre les mêmes résultats, ont su conserver une marge de manœuvre pour réagir aux imprévus. La principale faiblesse de l’IA ? L’incapacité à anticiper l’imprévisible et à ajuster ses stratégies avec la flexibilité d’un dirigeant humain.

Une leçon pour le monde réel

Que signifient ces résultats pour les entreprises ? Peut-on envisager de confier la direction générale à une IA ? La réponse est nuancée. Si l’on transpose cette expérience au monde réel, GPT-4o montre un potentiel indéniable pour améliorer certaines fonctions stratégiques des entreprises, notamment celles qui nécessitent des analyses rapides et des réponses « data-driven », comme l’optimisation des coûts, la gestion des chaînes logistiques et même la conception de produits. Sa capacité à traiter de vastes ensembles de données et à itérer à grande vitesse pourrait par exemple être mise à profit pour identifier des niches de marché ou élaborer des stratégies de prix complexes. C’est ce que les opérateurs télécom ont fait dans les années 2000 pour couvrir toutes les niches, mais avec
une algorithmie procédurale.

Cependant, dans des contextes imprévisibles, tels que des crises sanitaires, des perturbations géopolitiques ou des changements réglementaires soudains, l’IA s’avère encore trop rigide. Dans l’expérience, la gestion d’événements inattendus, comme les effets du Covid-19, a révélé une faiblesse structurelle de GPT-4o : l’incapacité à sortir de sa logique algorithmique pour envisager des scénarios extrêmes et inédits. Autrement dit, l’IA a été incapable de pensée « out of the box ».

Une complémentarité entre l’IA et les PDG humains

La conclusion s’impose d’elle-même : l’IA n’est pas prête à remplacer les PDG humains, mais elle peut jouer un rôle essentiel en les assistant. Plutôt que de se concentrer sur la direction opérationnelle, les dirigeants devraient utiliser des modèles comme GPT-4o pour renforcer leur capacité de prévision et affiner leurs décisions basées sur les données, laissant à l’humain la tâche de gérer les aspects éthiques, relationnels et intuitifs de la gestion d’une entreprise.

Selon les conclusions des rédacteurs de l’article, à terme, le leadership de demain pourrait reposer sur un modèle hybride, où l’IA compléterait les compétences humaines, augmentant l’efficacité et la vitesse des prises de décision tout en laissant aux PDG humains la gestion des crises, la définition de la vision stratégique à long terme et l’adaptation à des environnements forcément dynamiques.

Pour les entreprises et les cabinets de conseil en stratégie, cela pose la question de l’évolution des pratiques. Alors que des cabinets comme McKinsey ou BCG se préparent à intégrer l’IA dans leurs méthodologies, il est possible qu’un jour, les « jumeaux
numériques » de l’entreprise, animés par des IA capables de simuler des stratégies, deviennent les alliés indispensables des dirigeants.

La course à l’IA dans la gouvernance d’entreprise est lancée. Mais contrairement à une vision dystopique où les machines prendraient le contrôle, le scénario le plus probable est celui d’une collaboration entre l’IA et les humains. « Les PDG qui réussiront seront ceux qui sauront tirer parti de cette synergie, exploitant la puissance analytique de l’IA tout en préservant leur rôle de guide éthique et stratégique de leurs entreprises ».