L’éditeur d’Ubuntu améliore son offre permettant de déployer des projets IA/ML sous Kubernetes. Il annonce la sortie de Charmed Kubeflow version 1.6, une plateforme MLOps de bout en bout dotée de capacités optimisées d’apprentissage de modèles complexes. Charmed Kubeflow est la distribution de Canonical de Kubeflow, une boîte à outils d’apprentissage automatique open sourcé conçue pour être utilisée avec Kubernetes.
Kubeflow augmente la capacité de Kubernetes à exécuter des étapes indépendantes et configurables, avec des cadres et des bibliothèques spécifiques à l’apprentissage automatique. Charmed Kubeflow 1.6 suit la même cadence de publication que le projet Kubeflow en amont. Cette dernière version suit la feuille de route de Kubeflow et s’accompagne d’améliorations des performances et de capacités de formation de modèles plus avancées.
Traiter et transformer les données facilement
L’enquête 2022 de Kubeflow révèle que le traitement et la transformation des données sont les activités les plus difficiles et les plus chronophages. Un processus compliqué par la provenance des données de diverses sources, chacune ayant des processus et des dépendances particuliers. Pour pallier ces difficultés, et en plus d’accélérer les déploiements, Charmed Kubeflow 1.6 rend le traitement des données plus transparent. La version 1.6 est dotée de meilleures capacités de suivi, ce qui améliore l’efficacité de la mesure des modèles AI/ML. La solution détecte la dérive des données et permet aux modèles de s’y adapter. Charmed Kubeflow 1.6 offre également un meilleur suivi des journaux d’essai, ce qui permet un débogage efficace en cas de défaillance de la source de données.
Les modèles nécessitent jusqu’à 15 itérations avant d’être prêts pour la production, et seulement la moitié d’entre eux arrivent à ce stade du processus d’IA/ML. Charmed Kubeflow 1.6 prend en charge la formation basée sur la population (PBT), ce qui permet d’accélérer l’itération des modèles et d’améliorer la probabilité qu’ils soient prêts pour la production. Un opérateur MPI rend la formation de grands volumes de données plus efficace. Les améliorations apportées à PyTorch rendent l’entraînement des modèles plus efficace et aident les ingénieurs ML à démarrer rapidement les projets.