Il vise les cas d’usage nécessitant des modèles à faible empreinte, particulièrement adaptés aux environnements à ressources limitées, y compris les scénarios d’inférence sur appareil et hors ligne, les scénarios à latence limitée où des temps de réponse rapides sont essentiels, et les cas d’utilisation à faible coût, en particulier ceux dont les tâches sont plus simples. L’une des principales caractéristiques de Phi-3 Small est sa capacité à fonctionner dans différents environnements et à différentes tâches. Malgré sa faible empreinte, la fenêtre contextuelle plus longue permet de prendre en compte et de raisonner sur des contenus textuels volumineux (documents, pages web, code, etc.). Selon Microsoft,
« Phi-3-mini démontre de fortes capacités de raisonnement et de logique, ce qui en fait un bon candidat pour les tâches analytiques ».
Sobriété énergétique et computationnelle
Grâce à son algorithme d’apprentissage automatique amélioré, il peut apprendre et s’adapter dans divers scénarios d’usage. De plus, sa taille réduite le rend plus facile à intégrer dans différents systèmes et appareils. Celle-ci permet également un réglage fin ou une personnalisation plus facile et plus abordable. En outre, sa sobriété computationnelle en fait une option moins coûteuse avec une latence meilleure. Phi -3 Small est effectivement conçu pour être économe en énergie. Il consomme moins d’énergie que ses prédécesseurs. Cette efficacité énergétique est un avantage, en particulier pour les entreprises qui cherchent à réduire leur empreinte carbone.En termes de fonctions, les petits modèles d’IA sont souvent utilisés pour des tâches qui nécessitent une interaction en temps réel avec l’environnement, comme la reconnaissance vocale, la vision par ordinateur, ou le traitement du langage naturel. Ils peuvent également être utilisés dans des applications où les capacités sont limitées, comme les appareils mobiles, les véhicules autonomes, ou les robots. De plus, leur coût abordable et leur facilité d’utilisation les rendent idéaux pour les applications grand public, comme les assistants vocaux ou les systèmes de maison intelligente. De plus, les SLM sont souvent plus adaptables que les LLM, car ils peuvent être facilement ajustés et personnalisés pour des tâches spécifiques ou des domaines particuliers.
Il est disponible en tant que microservice Nvidia NIM via une API
Phi-3-mini est disponible dès à présent sur Microsoft Azure AI Studio, Hugging Face et Ollama. Il est proposé dans deux variantes de longueur de contexte : 4K et 128K tokens.« C’est le premier modèle de sa catégorie à prendre en charge une fenêtre de contexte allant jusqu’à 128 000 tokens, avec un faible impact sur la qualité », affirme Microsoft. Il
« comprend » les instructions humaines, ce qui signifie qu’il est entraîné pour suivre différents types d’instructions reflétant la façon dont les utilisateurs communiquent habituellement. Le modèle est ainsi prêt à l’emploi, et sur Azure AI, il bénéficie d’un écosystème d’outils « deploy-eval-finetune ».
Phi-3-mini est disponible sur Ollama pour que les développeurs puissent l’exécuter localement sur leurs ordinateurs portables. Il a été optimisé pour ONNX Runtime avec la prise en charge de Windows DirectML ainsi que la prise en charge multiplateforme du processeur graphique, du CPU et même des appareils mobiles. Il est également disponible en tant que microservice Nvidia NIM avec une interface API standard qui peut être déployée n’importe où. Il a été optimisé pour les GPU Nvidia. Dans les semaines à venir, Microsoft devrait lancer les deux autres modèles, Phi-3 Small et Phi-3 Medium
Microsoft a également mis l’accent sur la sécurité et la confidentialité dans le développement de Phi-3 Small. Le système est équipé de fonctionnalités de sécurité avancées pour protéger les données et garantir la confidentialité des utilisateurs. Il est conforme aux normes de sécurité les plus strictes, ce qui en fait un choix sûr pour les entreprises et les particuliers.
Enfin, Microsoft a annoncé que Phi-3 Small sera disponible à un prix abordable, dans le but de rendre l’IA plus accessible à un plus grand nombre de personnes. Cette initiative s’inscrit dans la stratégie globale de Microsoft, qui vise à occuper les différents segments émergents du marché de l’IA et répondre aux exigences des divers cas d’usage.