Sommes nous en train de créer l'espèce supérieure qui prendra notre place ? A observer les progrès vertigineux que nous réalisons en matière d'Intelligence Artificielle (IA), nous sommes de plus en plus nombreux à le penser. A l'exemple de Steve Wozniak.

Après le mathématicien Stephen Hawking, le théoricien Raymond Kurzweil, le fondateur de Microsoft Bill Gates, et l'entrepreneur Elon Musk (Tesla, SpaceX…), c'est au tour de Steve Wozniak, le co-fondateur d'Apple, de se déclarer inquiet face à l'évolution de l'Intelligence Artificielle !

Les ordinateurs de l'IA

Pour devenir efficace, l'IA doit reposer sur des ordinateurs toujours plus puissants. Or, si l'on suit la loi de Moore, qui indique que le nombre de composants qui intègrent un processeur double tous les deux ans, ils sont de plus en plus puissants !

Concrètement, chaque nouvelle génération de processeur permet de supporter des algorithmes de plus en plus performants, et surtout capables de nous remplacer dans la prise de décision. C'est le cas aujourd'hui, qu'il s'agisse de Watson, le méga ordinateur d'IBM, de la BI (Business Intelligence) ou du Big Data. Ou encore des couches de virtualisation qui se substituent à l'administrateur pour piloter seules le serveur et/ou le réseau.

Woz monte au créneau

Voici donc que Steve Wozniak s'est joint au concert des voix qui s'élèvent, de plus en plus nombreuses, pour s'inquiéter du futur de l'humanité qui finira bien par être confrontée au phénomène. Dans une interview accordée à la revue économique Australian Financial Review, le co-fondateur d'Apple (qui même s'il a quitté le groupe, reste l'un de ses principaux actionnaires), Woz nous a fait part de sa vision d'un monde dont « le futur est effrayant et sera mauvais pour les gens ».

Sa vision est en effet apocalyptique pour l'espèce humaine : Woz imagine, sans que cela ne nécessite trop d'effort d'ailleurs, un monde où la machine pensant plus vite que nous finira par se débarrasser de l'homme. En particulier pour faire fonctionner les entreprises.

Ce n'est pas que du cinéma

Le cinéma est souvent le reflet de nos préoccupations. Il y a une trentaine d'années, un film sympathique, Wargames, imaginait qu'un ordinateur, trompé par un adolescent surdoué qui pensait jouer à une simulation de guerre moderne, prenait le contrôle de l'armement nucléaire américain pour se lancer dans une guerre nucléaire totale.

Ces dernières semaines, deux films nous interpellent : l'étonnant Chappie nous permet d'assister à la 'naissance' et à l'éducation d'un robot, tandis qu'Automata suit un enquêteur qui poursuit des robots capables de s'auto-réparer, un acte considéré comme étant 'intelligent'. Nous pourrions citer d'autres exemples…

Qu'Assimov nous protège !

Si Steve Wozniak s'inquiète légitimement de la tournure que prennent les projets d'IA – rappelons à ce titre qu'il semble que nous soyons proches de la reproduction numérique d'un cerveau humain – son penchant technologique a rapidement repris le dessus. Ainsi nous conseille-t-il de poursuivre « l'exploration scientifique », tout en constatant d'une part que la loi de Moore pourrait atteindre une barrière en 2020, celle de la taille de l'atome ; et d'autre part qu'il n'existerait actuellement aucun concept fonctionnel d'informatique quantique.

Il n'est pas certain que le discours de Woz soit rassurant… Allons nous devoir appliquer à l'Intelligence Artificielle les trois lois de la robotique imaginées par l'écrivain de science fiction Isaac Assimov ? Un rappel s'impose :

  1. Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger.
  2. Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la Première loi.
  3. Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la Première ou la Deuxième loi.

Merci de remplacez 'robot' par 'intelligence artificielle'...