Les systèmes d’intelligence artificielle (IA) qui communiquent sans intervention humaine ne relèvent plus de la science-fiction. Cette réalité transforme notre manière de travailler et de communiquer, marquant un tournant majeur.

À mesure que l’IA s’intègre toujours davantage dans nos vies, les interactions entre systèmes d’IA prennent une importance croissante. Nous utilisons l’IA depuis bien plus longtemps qu’on ne le pense : des débuts avec le texte prédictif et la correction automatique jusqu’aux IA conversationnelles actuelles capables de rédiger des articles, générer des images ou créer des deepfakes.

La société est témoin de fonctionnalités d’IA axées sur l’interaction humaine, comme les
e-mails d’hameçonnage rédigés par des grands modèles de langage (LLM). D’autres systèmes d’IA communiquent directement entre eux, souvent sans intervention humaine. Un exemple marquant est celui de « l’IA Mamie » d’O2, incarnée par une voix interactive nommée Daisy, qui engage les arnaqueurs dans des conversations inutiles pour les empêcher de nuire à des personnes moins averties, susceptibles de perdre des milliers d’euros, voire leurs économies.

Interactions entre ordinateurs : bref aperçu

La communication entre machines ne date pas d’hier. Depuis des décennies, les ordinateurs échangent des données : de l’établissement de connexions via la poignée de main en trois temps du protocole TCP/IP jusqu’à la transmission fluide d’informations entre appareils. C’est un peu comme envoyer un message à un ami : simple, direct et efficace. L’avantage, c’est que les machines excellent dans les tâches répétitives ou fastidieuses. Les humains n’ont plus besoin d’intervenir pour gérer ces interactions élémentaires — les systèmes d’IA prennent le relais.

« Une étude récente a révélé que 52 % des personnes interrogées se déclaraient "extrêmement" ou "très intéressées" par une automatisation accrue des tâches fastidieuses de leur travail. Ces tâches incluent la paperasse (45 %), les feuilles de temps et les factures (39 %), le nettoyage et le rangement (37 %), ainsi que la prise de notes
(36 %). »
Mais il faut se poser la question suivante : ne sommes-nous pas en train de donner une tablette à un enfant en bas âge dans l’espoir qu’il s’occupe, en ignorant les conséquences néfastes potentielles ?

La révolte accidentelle de l’IA : dérapages et erreurs

Nous savons tous que les interactions entre systèmes d’IA ne débouchent pas toujours sur une symphonie d’efficacité. Les chatbots sont célèbres pour se perdre dans leurs propres algorithmes. Imaginez un chatbot sombrant dans une crise existentielle : « Suis-je juste une FAQ améliorée ? Quel est le sens de la vie ? Comment puis-je vous servir si je ne sais pas qui je suis ? »

Mais les erreurs d’IA ne se limitent pas aux spéculations philosophiques. En 2015, Amazon a testé un outil de recrutement basé sur l’IA qui s’est révélé sexiste, car il avait été entraîné sur des CV majoritairement masculins. Cela illustre bien la tendance des systèmes d’IA à reproduire les biais humains, sciemment ou non. Autre exemple dans le domaine de la santé : Watson for Oncology d’IBM promettait de révolutionner les traitements du cancer. Pourtant, une enquête menée par STAT en 2018 a révélé que cette IA formulait des recommandations « dangereuses et incorrectes ».

Les marchés financiers ne sont pas épargnés par les dérapages algorithmiques. Lors du Flash Crash de 2010, le Dow Jones Industrial Average a chuté de près de 1 000 points en quelques minutes, partiellement à cause d’algorithmes de trading à haute fréquence. Cet événement fait écho à d’autres conséquences inattendues de l’automatisation, comme l’accident mortel d’un véhicule autonome d’Uber en 2018, impliqué dans la collision d’un piéton en Arizona.

Dans un monde où les systèmes d’IA sont censés rationaliser les processus, il est bon de se rappeler que « ce n’est pas parce que c’est numérique que c’est intelligent ».

Quel avenir pour les interactions entre IA ?

Alors, quelle direction prendre ? Avec l’augmentation rapide des interactions inter-machines et l’autonomie croissante des systèmes d’IA, l’avenir devra être géré avec discernement. Il faudra des cadres éthiques solides, capables de soutenir l’innovation tout en imposant des limites responsables. La collaboration entre les géants technologiques, les régulateurs et les autres parties prenantes sera essentielle.

Le projet de règlement européen sur l’intelligence artificielle propose de classer les systèmes d’IA selon des niveaux de risque — de minimal à inacceptable — et d’imposer des exigences strictes aux applications à haut risque tout en favorisant l’innovation dans les domaines à faible risque. Cette approche proactive reflète la prise de conscience croissante de la nécessité d’une gouvernance robuste à mesure que l’IA s’intègre dans nos vies.

Les initiatives éducatives jouent également un rôle crucial. Il faut développer une culture numérique qui permette aux citoyens de mieux comprendre l’IA et ses enjeux. L’utilisateur ne doit pas rester spectateur du développement de l’IA : il doit en devenir un acteur, un défenseur et un critique avisé.

Alors que ces systèmes intelligents interagissent de plus en plus entre eux, il est impératif de maintenir la supervision humaine. Il ne s’agit pas de renoncer au potentiel de l’IA, mais de l’aligner sur des valeurs et une éthique humaines. L’objectif est de construire un monde meilleur, pas de se perdre dans le chaos des dérapages algorithmiques.

Par James McQuiggan, expert en sensibilisation à la sécurité chez KnowBe4