L’IA va s’imposer dans le cloud, son évolution reposera sur l’algèbre linéaire, les systèmes d’infrastructure vont changer et les GPU seront mis de côté alors qu’Apple ne s’est pas encore prononcé sur le sujet. Voici les tendances qui selon InduprakasKeri, SVP chez Nutanix, vont animer l’année 2024.

Souvent en informatique, « la prochaine grande révolution » ne s’avère être qu’une étape dans l’évolution tumultueuse de ce marché. Les vétérans se souviendront des serveurs départementaux, tandis que les plus jeunes auront en souvenir le buzz provoqué par le Big Data et l’analytique durant les années 2000. Tandis que les serveurs départementaux ont émigré vers les centres de données, le Big Data et l’Analytique sont devenus des technologies enfouies, transparentes pour l’utilisateur. En revanche, d’autres technologies évoluent pour devenir des piliers incontournables pour les utilisateurs, c’est le cas du cloud et, bien entendu, de l’IA.

Nutanix, le spécialiste des solutions d’intégration du cloud hybride et du multicloud présente une série de prédictions qui sortent quelque peu des sentiers battus. L’éditeur aborde par exemple au sujet de la pérennité des GPU actuels, au profit de nouvelles architectures plus performantes et surtout moins énergivores. Il s’interroge sur la stratégie d’Apple sur le marché de l’IA. Sachant que l’éditeur d’IOS ne cherche pas à être le premier, mais le meilleur, on peut s’attendre à le voir investir ce marché avec des solutions révolutionnaires.

Dans tous les cas, selon Nutanix, l’IA va s’imposer dans le cloud, son évolution reposera sur l’algèbre linéaire, les systèmes d’infrastructure vont changer et les GPU seront mis de côté alors qu’Apple ne s’est pas encore prononcé sur le sujet. Voici les cinq tendances qui selon InduprakasKeri, SVP et General Manager of Hybrid Multicloud de Nutanix, vont animer l’année 2024.

Les entreprises se tournent de plus en plus vers le cloud hybride

L’IA étant un cas d’utilisation du cloud hybride, des données publiques sont utilisées pour créer un modèle de base. Il faut ensuite affiner et augmenter ce modèle pour le rendre plus spécifique à l’entreprise, et cela ne peut vraiment se faire que dans le data center de l’entreprise. Avec une infrastructure en tant que service, la perte de données est inévitable. Toute l’inférence se fait ensuite à la périphérie.  

Développement : l’algèbre linéaire revient à la page

L’algèbre linéaire est fondamentale pour l’intelligence artificielle, en particulier les opérations sur les matrices et les vecteurs, et essentielle pour le traitement efficace des grandes quantités de données. Bien que les utilisateurs finaux d’IA ne soient pas directement impliqués dans ses aspects techniques, elle influence leur expérience de plusieurs manières. De nombreuses opérations en IA, comme les transformations, les rotations et la mise à l’échelle, sont des opérations d’algèbre linéaire. Selon InduprakasKeri, le sujet de l’algèbre linéaire redevient clé pour aider à faire avancer les projets d’applications basées sur l’IA.

Elle pourrait faire avancer les applications d’IA telles que le traitement du langage naturel et la vision par ordinateur. La maîtrise de l’algèbre linéaire permet de comprendre les modèles qui décrivent l’impact des changements sur les résultats, ce qui permet de déboguer et d’améliorer les modèles. L’algèbre linéaire est essentielle pour analyser et trouver un sens aux ensembles de données complexes et volumineux utilisés dans les applications d’IA.  

Les organisations rationalisent l’infrastructure

Les développeurs ne devraient pas avoir à se soucier de l’infrastructure. Ils pensent avant tout aux applications cloud hybride et à la gestion de leurs modèles. Ils recherchent le bon modèle et l’infrastructure peut les y aider. Si l’infrastructure comprend ce qu’est un modèle — et ce qu’est une version d’un modèle — il est possible d’obtenir ce modèle à partir du cloud public et le rendre disponible pour affinage, sans que le développeur n’ait à aller chercher les données. La clé du succès réside dans une infrastructure cohérente et évolutive capable de couvrir l’ensemble du flux de travail de l’IA : de la formation dans le cloud, à l’enrichissement, en passant par le raffinement et la formation dans les centres de données, et l’inférence à la périphérie.  

La fin de l’ère des GPU

Le règne des unités de traitement graphique (GPU) dans le domaine du calcul à haute performance, qui alimente les systèmes d’IA, est en train de s’essouffler. En particulier pour les tâches qui nécessitent un traitement parallèle, tel que le rendu vidéo et l’apprentissage profond (deep learning). D’autres technologies émergent actuellement comme alternatives aux GPU. Les chercheurs font progresser l’utilisation des unités de traitement tensoriel (TPU), des réseaux de portes programmables (FPGA) et même des unités centrales de traitement (CPU) à usage général. Les logiciels finiront par aider les systèmes informatiques à choisir les ressources de traitement les plus disponibles et efficaces.  

L’infrastructure « scaleout » sera essentielle

Contrairement à l’architecture « scaleup », où l’expansion est verticale et implique l’ajout de puissance à une machine existante (par exemple plus de CPU), l’infrastructure « scaleout » est horizontale et implique l’ajout de machines ou de nœuds à un réseau pour augmenter la capacité. Dans le cas d’une application de cloud hybride, on doit pouvoir s’appuyer sur une infrastructure « scale out » pour permettre aux modèles de parcourir le chemin depuis la périphérie jusqu’au data center et au cloud public.  

Qu’attend Apple ?

En toile de fond, InduprakasKeri commente dans un article de blog qu’il faut aussi, quand il s’agit d’IA, garder un œil sur Apple. La plus grande entreprise au monde brille par son absence, aussi bien dans le débat sur l’avenir de l’IA que dans ces produits. InduprakasKeri déclare à ce sujet qu’il ne s’attend pas à ce que cela dure longtemps. « Ce qu’Apple a fait avec son chips et est incroyable. Le M2 dispose d’un GPU, d’un CPU et d’un moteur matriciel. Ils ne font rien du côté des serveurs, mais s’ils décidaient un jour de s’y lancer, je pense que ce serait tout simplement fantastique. Ils donneront du fil à retordre aux opérateurs historiques. » En effet, historiquement, Apple a démontré qu’il ne se souciait pas d’être le premier. L’iPhone n’était pas le premier smartphone du marché, ni iPad la première tablette, pourtant, ils ont bousculé l’ordre établi.

Apple possède une gamme de produits (iPhone, iPad, Mac, Apple Watch, etc.) déjà intégrés avec des éléments d’IA, comme Siri. Une expansion dans l’IA paraît donc incontournable, et pourrait renforcer ces intégrations, offrant une expérience utilisateur plus riche et plus intuitive. L’IA peut enrichir l’écosystème d’Apple en offrant des fonctionnalités plus personnalisées et automatisées sur iCloud, Apple Music, ou l’App Store. L’accent sur l’intégration, la qualité, l’expérience utilisateur, et l’innovation continue a été la clé de ses succès passés. Dommage que cela soit dans un écosystème, intégré certes, mais fermé.