Re:Invent 2023, l’événement annuel d’AWS, a été l’occasion d’un véritable déploiement de force de la part du fournisseur de cloud et de services dans le cloud. L’éditeur de Lambda a présenté une liste impressionnante de nouveautés, en positionnant le serverless au cœur de sa stratégie, offrant un portfolio enrichi pour répondre aux besoins croissants de déploiement de l'IA en entreprise, l’accès et le traitement des données, la transparence du provisionnement, le stockage avancé et la computation. Ces innovations reflètent une stratégie volontariste d’enrichissement continu du portefeuille afin de rester à la pointe de la technologie cloud, tout en anticipant les tendances émergentes du marché et les besoins changeants des entreprises.

La stratégie serverless d'AWS, qui a pris une importance croissante au fil du temps, est centrée sur la fourniture de services cloud permettant aux développeurs et aux entreprises de se concentrer sur la création d'applications sans se soucier de la gestion de l'infrastructure sous-jacente. AWS a étendu les capacités de Lambda, augmentant les limites de temps d'exécution, améliorant les performances et introduisant des fonctionnalités telles que le support des langages de programmation et des environnements d'exécution personnalisés. Il est impossible de détailler toutes les annonces dans le cadre de cet article. Celles-ci vont des nouveaux SOC Graviton au bureau virtuel, en passant par l’Edge computing, la conformité et la gouvernance.  

Plus d’intelligence et d’automatisation partout où cela est possible

L’objectif est d’aligner les nouveautés afin de mettre plus d’intelligence et d’automatisation partout où cela est possible, en se basant sur les capacités de copilote de Q, afin d’ouvrir l’utilisation de ses outils aux non-spécialistes, de fluidifier les flux de travail et d’améliorer la gouvernance des applications, l’accès aux données et la collecte de métriques. Cependant, c’est dans le domaine de l’IA et du ML qu’Amazon enrichit le plus son portfolio.

Lors de l'événement AWS re:Invent 2023, des avancées majeures ont été annoncées pour SageMaker et Bedrock, témoignant de la stratégie d'intégration la plus large possible de l'intelligence artificielle et du machine learning pour démocratiser et optimiser l'utilisation de l'IA et du ML, offrant ainsi de nouveaux outils et fonctionnalités pour une gamme d'utilisateurs toujours plus large. En témoigne l'introduction d'une interface web améliorée pour SageMaker Studio, plus rapide et plus intuitive, qui fournit un accès cohérent à l'ensemble des outils et ressources de SageMaker, quel que soit l'environnement de développement intégré (IDE) utilisé.

Ce changement vise à rendre SageMaker Studio plus accessible et plus facile à utiliser, améliorant l'expérience et l'efficacité des développeurs. Il s’agit d’enrichir Bedrock de modèles de langage et d’outils et d’améliorer SageMaker pour la mise à l'échelle des modèles en accélérant le temps d'apprentissage des modèles. Concernant Bedrock, les utilisateurs peuvent désormais accéder à des modèles plus avancés, comme Claude 2.1 d'Anthropic, qui offre un contexte de token plus large et une précision améliorée. Amazon Bedrock intègre également des modèles Titan d’AWS, qui représentent 25 ans d'innovation en IA et ML chez Amazon. Ce modèle offre une fenêtre de contexte de 200 000 tokens, des taux d’hallucination réduits et une précision accrue sur les longs documents.  

Clarify, pour choisir le meilleur modèles pour son cas d'utilisation

SageMaker Clarify est une fonction qui permet aux utilisateurs d'évaluer, de comparer et de sélectionner les meilleurs modèles pour leur cas d'utilisation spécifique. Il facilite la sélection des modèles les plus adaptés et performants pour des tâches spécifiques, tout en garantissant l'alignement avec les politiques d'IA responsable. Pour sa part, SageMaker Canvas propose des capacités étendues pour la préparation des données utilisant des instructions en langage naturel et la construction de modèles à l'aide de modèles de base en quelques clics.

Pour les développeurs, l'intégration du ModelBuilder dans le SDK Python de SageMaker permet aux utilisateurs de packager facilement des modèles, d'effectuer des inférences locales pour identifier et résoudre les erreurs avant le déploiement, et de déployer ces modèles directement sur SageMaker depuis leur IDE local ou via les notebooks SageMaker Studio. Cette évolution simplifie le processus de création et de déploiement des modèles de ML, réduisant ainsi les obstacles techniques et accélérant le cycle de développement.  

Du calcul distribué pour l’IA

Enfin, en termes d’accélération des processus d’apprentissage pour la formation de modèles complexes et volumineux, AWS introduit SageMaker Hyperpod, une fonction de calcul distribué conçue pour l'entraînement à grande échelle des modèles de base en machine learning. Selon AWS, il accélère de 40 % le temps nécessaire à l'entraînement des modèles, en répartissant la computation sur des milliers d'accélérateurs, assurant ainsi un traitement parallèle plus rapide. En cas de défaillance matérielle, il détecte, répare et reprend l'entraînement à partir du dernier point de sauvegarde, éliminant ainsi la nécessité d'une gestion manuelle et réduisant les coûts et les délais associés au déploiement de nouvelles innovations en IA générative.

Grâce à un portefeuille de services de plus en plus riche et diversifié, Amazon compte bien élargir sa base d’utilisateurs et développer de nouveaux segments de marché comme l’Edge computing. Mais c’est dans le domaine de l’IA et de l’entraînement de modèles que l’éditeur de SageMaker entend affirmer son positionnement, avec une palette d’outils et de modèles de langages la plus large possible.