Graphcore vient d’annoncer le lancement de deux nouvelles configurations à son catalogue de systèmes de calcul IPU-POD. Conçus pour accélérer de grands modèles d’apprentissage automatique, et permettre une évolutivité plus simple, les nouveaux calculateurs proposent une puissance de calcul de 32 pétaFLOPS pour l’IPU-POD128 et 64 pétaFLOPS pour l’IPU-POD256.

Les IPU-POD sont adaptés aux hyperscalers, aux laboratoires de calcul scientifique et de recherche axés IA en entreprise, ainsi qu’aux équipes IA actives dans les milieux financiers et pharmaceutiques afin qu’ils puissent augmenter leur capacité de calcul. Ces nouveaux IPU-POD permettent par exemple un entraînement plus rapide de larges modèles de transformeurs pour l’IA, tout en offrant la possibilité de traiter de larges modèles d’inférence dans un contexte commercial. Ils sont aussi compatibles avec des types de calcul plus généraux qui accroissent l’efficacité des calculs, tout comme divers modèles d’apprentissage automatique, parmi lesquels les réseaux de neurones graphiques.

Comme avec les autres systèmes IPU-POD, l’IPU-POD128 et l’IPU-POD256 peuvent être optimisés afin d’offrir des performances maximales avec des charges de travail différentes, pour un coût total de possession optimal tout au long de son cycle de vie (TCO). Par exemple, un système dédié au traitement automatique des langues peut comporter uniquement deux serveurs, alors que ces derniers seront au nombre de huit avec des tâches impliquant plus de données, comme celles ayant trait à la vision par ordinateur.

Plus d’accès grâce à la virtualisation

Ces nouvelles configurations se caractérisent par des passerelles, à savoir des connexions rack à rack horizontales qui étendent les liens entre IPU par tunnellisation, avec un débit Ethernet standard de 100 Gb/s. Les communications sont gérées par la passerelle située sur chaque machine et les connecteurs doubles de cette dernière se chargent de la connectivité. Ceci permet un accès aux IPU à davantage de développeurs en divisant un système en partitions virtuelles (vPOD) de moindre taille, tout en offrant plus de flexibilité. Cette solution ouvre la voie à l’exploration de nouveaux modèles de transformeurs génératifs pré-entraînés tels que GPT et les réseaux de neurones pour graphs (GNN) à travers des systèmes entiers.

Atos fait partie des nombreux partenaires de Graphcore ayant prévu de déployer des systèmes IPU-POD128 et IPU-POD256 sur les sites de ses clients du monde entier :

« Nous sommes ravis de pouvoir ajouter les systèmes IPU-POD128 et IPU-POD256 de Graphcore à notre portefeuille ThinkAI. Ainsi, nos clients peuvent explorer et déployer des modèles d’IA plus vastes et innovants, et ce dans de nombreux secteurs, comme la recherche académique, la finance, la santé, les télécommunications et l’Internet grand public », indique Agnès Boudot, vice-présidente senior et directrice des opérations pour le calcul haute performance et la technologie quantique.