A l'occasion de son évènement annuel Re:Invent, AWS a annoncé trois nouvelles instances Amazon Elastic Compute Cloud (Amazon EC2) alimentées par des puces conçues par AWS. Les nouvelles instances C7g alimentées par des processeurs AWS Graviton3 de nouvelle génération « offrent des performances jusqu'à 25 % supérieures à celles des instances C6g de génération actuelle alimentées par des processeurs AWS Graviton2 », annonce AWS.
De mêmes, les nouvelles instances Trn1 alimentées par les puces AWS Trainium offrent de meilleures performances pour former la plupart des modèles d'apprentissage automatique dans Amazon EC2. Enfin, les nouvelles instances Im4gn/Is4gen/I4i optimisées pour le stockage et basées sur les disques SSD AWS Nitro conçus par AWS, offrent aussi de meilleures performances de stockage pour les charges de travail à forte intensité d'E/S exécutées sur Amazon EC2.
Pour séduire les clients potentiels, AWS a construit une offre pour les lourdes charges de travail comme l’IA et l’apprentissage automatique. Outre leurs performances en virgule flottante, les processeurs AWS Graviton3 sont également plus économes en énergie, consommant jusqu'à 60 % d'énergie en moins pour les mêmes performances que les instances EC2 comparables. De plus, les instances C7g sont les premières du cloud à être dotées de la toute dernière mémoire DDR5, qui offre une bande passante mémoire 50 % supérieure, afin d'améliorer les performances des applications gourmandes en mémoire, comme le calcul scientifique.
Des instances accélérées pour l’IA et le ML
Les instances C7g offrent également une bande passante réseau supérieure de 20 % par rapport aux instances basées sur AWS Graviton2. Elles prennent en charge Elastic Fabric Adapter (EFA), qui permet aux applications de communiquer directement avec les cartes d'interface réseau, offrant une latence plus faible et plus constante, pour améliorer les performances des applications nécessitant un traitement parallèle à l'échelle, comme le calcul intensif et l'encodage vidéo. Les instances C7g sont disponibles dès aujourd'hui.
De leur côté, les instances Trn1 alimentées par les puces Trainium d'AWS permettent de meilleures performances pour l’entrainement des modèles d'apprentissage automatique dans Amazon EC2, « ce qui permet de réduire jusqu'à 40 % le coût d'entraînement des modèles d'apprentissage profond par rapport aux dernières instances P4d », affirme AWS. Les instances Trn1 offrent une bande passante réseau EFA de 800 Gb/s (deux fois plus élevée que les dernières instances EC2 basées sur les GPU) et s'intègrent à Amazon FSx pour le stockage haute performance Lustre, ce qui permet aux clients de lancer des instances Trn1 avec la capacité EC2 UltraClusters.
Avec EC2 UltraClusters, les utilisateurs peuvent faire évoluer la formation à l'apprentissage automatique vers plus de 10 000 accélérateurs Trainium interconnectés par un réseau à l'échelle du pétabit, « offrant ainsi aux clients un accès à la demande à des performances de classe supercalculateur pour réduire le temps de formation de plusieurs mois à quelques jours, même pour les modèles les plus grands et les plus complexes ». Les instances Trn1 sont disponibles dès aujourd'hui également.