Les failles Meltdown et Spectre découvertes sur les processeurs Intel, au-delà du danger massif qu’elles représentent, sont un appel à l’innovation dans le domaine des processeurs.

Un rappel, tout d’abord : les failles Spectre et Meltdown récemment dévoilées - qui affectent pas moins de 3 milliards de PC et autres équipements dans le monde, qui touchent la plupart des acteurs des PC, des serveurs et des smartphones (Intel, AMD, ARM, IBM, Sparc, etc.), et par ricochet tous les opérateurs de cloud (AWS, Microsoft, Google, etc.) – ne peuvent être corrigées. La faille de sécurité affecte le silicium, donc l’intégrité physique du CPU.

Tout juste peut-on corriger les OS (systèmes d’exploitation) qui les pilotent, au prix de dégradations sensibles des performances, faibles dégradations sur les processeurs récents, les plus performants, fortes dégradations sur les processeurs plus anciens. Et encore faut-il que le remède ne soit pas pire que le mal, ainsi des tergiversations d’Intel et de certains éditeurs sur leurs patchs, « mettez à jour » nous dit-on, avant de revenir en arrière et de ne plus mettre à jour, avant de…

Si les failles Spectre et Meltdown ne semblent pas avoir ‘encore’ été exploitées, ce que nous a confirmé Guillaume Poupard, le directeur général de l’ANSSI lors du FIC, nul doute que les hackers mafieux sauront partager l’information et les exploiter dans le temps, car quel soit le patch, elles resteront ! Le danger est réel, et pour longtemps encore, un officiel d’Intel ayant déclaré qu’il faudra 3 ans au moins pour mettre la production des processeurs à niveau…

Mettre fin à l’architecture von Neumann

Voilà qui permet de porter un nouveau regard sur la recherche en matière de processeurs. Et de rappeler que les processeurs présents dans nos PC et smartphones reposent sur une technologie vieille de 70 ans, l’architecture Von Neumann. C’est en effet dans les années 1940 que John von Neumann s’est attribué le crédit de la documentation de l’architecture EDVAC, en réalité développée par J. Presper Exkert et John Mauchly, soulevant une controverse historique.

Dans l’architecture von Neumann, la donnée communique directement avec le processeur qui dispose d’un accès exclusif avec la mémoire et le stockage.

Aujourd’hui, la vision des concepteurs d’architectures alternatives est de placer la logique (applications) non plus dans le processeur mais dans la mémoire, avec une conception plus modulaire qui éliminerait le besoin d’une carte mère. Un projet loin d’être nouveau, qui repose sur les concepts de RAM intelligente et de ‘near-data processing’, dont le caching, le préchargement et le calcul parallèle sont assez proches mais encore trop soumis au CPU.

La difficulté de ces projets est de repenser la pile système globale, avec de nouveaux cadres de programmation qui permettent en particulier d’isoler le programmeur des capacités architecturales. Le code ainsi développé aurait le double mérite d’être très portable, et ce qui était accessoire jusqu’à aujourd’hui d’éviter au code d’être soumis aux failles éventuelles dans le processeur.

La DARPA lance son projet d’ordinateur du futur

La DARPA (Defense Advanced Research Projects Agency), l’agence américaine de recherche militaire, l’un des principaux moteurs d’innovation de l’industrie américaine, accompagnée de la SRC (Semiconductor Research Corporation), projette de concevoir l’ordinateur du futur loin des architectures von Neumann, et pour cela distribue des budgets importants auprès de six nouveaux centres de R&D universitaires.

  • Le projet de recherche du CRISP (Center for Research on Intelligent Storage and Processing in Memory), de l’université de Virginie, a signé un contrat avec la DARPA et reçu un contrat de 200 millions de dollars sur 5 ans pour développer la mémoire intelligente, avec une nouvelle organisation de l’OS et des algorithmes pour protéger la donnée.
  • Autre projet, ADA (Applications Driving Architectures) de l’université du Michigan a reçu 32 millions de dollars de la DARPA pour simplifier la programmation en faisant du processeur et de la mémoire des composant modulaires dans un même ensemble. L’industrie soutient ce projet, avec ARM, IBM, Intel, Micron et Samsung.

Les quatre autres centres sont :

  • ASCENT (Applications and Systems-driven Center for Energy-Efficient integrated Nano Technologies), de l’université de Notre Dame (26 M$) ;
  • CONIX (Computing on Network Infrastructure for Pervasive Perception, Cognition, and Action), de l’université Carnegie Mellon (27,5 M$) ;
  • BRIC (Brain-inspired Computing Enabling Autonomous Intelligence), de l'université de Purdue (27 M$) ;
  • ComSenTer (Converged TeraHertz Communications and Sensing), de l’université de Californie à Santa Barbara (27,5 M$).

Si de nombreux travaux visent à intégrer l’IA et le Big Data dans le silicium, ils reposent encore sur les architectures von Neumann. Quant aux architectures informatiques du futur, elles ne sont pas attendues avant 10 ans. D’ici là, Meltdown et Spectre auront eu le temps de se faire oublier ou de faire des ravages. Et d’être éventuellement rejointes par d’autres failles encore inconnues… du public et des utilisateurs ! Une question se pose, cependant, ces travaux aboutiront-il avant ou après ceux de l’informatique quantique ? Cet autre axe de recherche, bien que très prometteur, avance certainement trop lentement pour l’administration américaine…

Image d’entête 639099008 @ iStock turbodesign777