Les nouvelles instances de calcul haute performance et d’apprentissage automatique d’AWS, baptisées P4, reposent sur les GPU A100 de Nvidia. Ces instances sont alimentées par les derniers processeurs Intel Cascade Lake et disposent de huit des derniers GPU Nvidia A100 Tensor Core, chacun étant connecté à tous les autres par NVLink et avec la prise en charge de Nvidia GPUDirect.
Disponibles pour l’heure seulement dans certaines régions des États-Unis, les instances P4 sont intégrées dans les grappes EC2 UltraClusters, qui peuvent supporter les charges de travail en matière d’apprentissage et de calcul intensif, comme le traitement du langage naturel, la détection et la classification des objets, l’analyse et la compréhension des scènes, l’analyse sismique, les prévisions météorologiques, la modélisation financière, etc. La prise en charge par les GPU A100 de Nvidia GPUDirect permet la mise en réseau à 400 Gb/s, la structure réseau à l’échelle du pétabit et l’accès aux services AWS tels que S3, Amazon FSx for Lustre et AWS ParallelCluster. Les clients peuvent créer à la demande des grappes EC2 UltraClusters avec 4 000 GPU ou plus.
Jusqu’à 2,5 fois plus de puissance
Avec une puissance de calcul de 2,5 PetaFLOPS en virgule flottante et 320 Go de mémoire GPU à haut débit, les instances peuvent fournir jusqu’à 2,5 fois la performance d’apprentissage profond actuelle, et jusqu’à 60 % de réduction des coûts d’apprentissage par rapport aux instances P3 introduites en 2017.
Les instances P4 comprennent 1,1 To de mémoire système et 8 To de stockage SSD basé sur NVME qui peut fournir jusqu’à 16 gigaoctets de débit en lecture par seconde. Au niveau du réseau, les clients de ces instances auront accès à quatre connexions de 100 Gb/s à un réseau dédié, à l’échelle du pétabit, non bloquant (accessible via EFA) qui a été conçu spécifiquement pour les instances P4, ainsi qu’à une bande passante EBS de 19 Gb/s pouvant supporter jusqu’à 80 K IOPS.