Fujitsu a annoncé une plateforme d’IA générative exploitable en environnement interne, avec une phase d’essais ouverte en février et un lancement commercial programmé en juillet. La pile associe une infrastructure privée, des modèles propriétaires, une quantification de la mémoire et des garde-fous applicatifs, ce qui permet aux clients d’exécuter des charges d’IA tout en conservant les données métiers dans un périmètre fermé.

Les fournisseurs d’infrastructures et les fabricants de serveurs accélèrent la constitution de plateformes IA complètes pour adresser les besoins de déploiements sur site imposés par les contraintes de données, de conformité et de contrôle opérationnel, tandis que le marché de la souveraineté numérique devient un axe d’investissement prioritaire pour les DSI et les RSSI. C’est dans ce mouvement que Fujitsu a annoncé fin janvier une plateforme d’IA générative exploitable en environnement interne, avec des essais ouverts en février et un lancement commercial programmé en juillet, afin de permettre l’exécution de charges IA tout en maintenant les données métiers dans un périmètre fermé.

Le japonais annonce un déploiement progressif au Japon et en Europe couvrant le développement des modèles, leur ajustement local, leur exploitation et leur amélioration continue. En pratique, cette architecture répond à trois contraintes opérationnelles identifiées par Fujitsu, la pénurie d’ingénieurs IA, la complexité de l’exploitation et l’augmentation des besoins en ressources de calcul, ce qui explique l’intégration native d’outils d’industrialisation et de sécurité dans une pile unique.

Un modèle adaptable sans transfert de donnée hors site

La plateforme repose sur une infrastructure déployable dans les centres de données des clients ou dans ceux du fournisseur, avec un socle matériel Primergy et une pile logicielle Private GPT. Cette fonctionnalité combine le modèle de langage LLM Takane, propriétaire, ainsi qu’un mécanisme de réglage local fin, ce qui permet d’adapter les modèles aux ensembles de données professionnelles sans transfert de données hors site et permet un contrôle direct des pipelines d’entraînement par les équipes IT.

Fujitsu annonce une réduction de la consommation mémoire pouvant atteindre quatre-vingt-quatorze pour cent grâce à des techniques d’allègement et de quantification des modèles. Ce mécanisme réduit le nombre de GPU utilisés et la quantité de mémoire vive nécessaire. Par conséquent, les coûts matériels des charges de traitement sur site ou en cloud privé pour des tâches d’IA générative sont significativement diminués.

Un framework d’agents low-code et no-code est fourni avec la prise en charge du standard de fait, Model Context Protocol, afin de coordonner plusieurs agents et de les connecter aux systèmes existants. En d’autres termes, les équipes peuvent concevoir des agents capables d’interroger des bases de données internes et d’exécuter des workflows applicatifs, ce qui permet d’automatiser des processus métier sans nécessiter de développement spécifique lourd.

Un scanner de vulnérabilités intégré

Un scanner de vulnérabilités intégré détecte plus de 7 700 failles connues et ajoute des signatures définies par l’éditeur. Ces résultats permettent l’activation automatique de mesures de protection empêchant les injections de prompt, les sorties inappropriées et certains comportements imprévus avant et pendant l’exécution. Grâce à cela, les responsables de la sécurité des systèmes d’information (RSSI) bénéficient d’un contrôle applicatif intégré directement dans le moteur d’intelligence artificielle (IA).

La génération automatique de règles associées aux vulnérabilités détectées alimente ces garde-fous en continu, ce qui implique une supervision centralisée des flux agents–données et l’application de politiques homogènes sur l’ensemble du cycle de vie des modèles. Cette configuration repose sur une instrumentation native de la plateforme, ce qui permet de vérifier les interactions et de suivre les opérations sans dépendre d’outils externes.

Les architectures souveraines en ligne de mire

La documentation technique met de l’avant un déploiement en environnement dédié et sécurisé avec confinement des données, contrôle local des modèles et supervision des agents. Fujitsu, sans l’exprimer clairement, vise les architectures souveraines. Telle qu’architecturée, l’offre se positionne sur les architectures d’IA privée utilisées par les organisations soumises à des exigences réglementaires fortes ou à des politiques internes de non-exposition des données sensibles.

Cette approche agrège infrastructure, modèles, orchestration et mécanismes de sécurité dans une solution unique, ce qui transfère la responsabilité de l’exploitation vers les équipes internes. Ce mécanisme implique pour les entreprise clientes une reprise en main complète des chaînes de calcul, des pipelines de données et des contrôles applicatifs, tandis que les services d’accompagnement proposés couvrent l’installation, l’industrialisation des opérations et l’exploitation courante afin de compenser le manque de compétences IA locales.

Cette annonce illustre une évolution concrète du marché de l’IA générative où l’intégration opérationnelle prime sur la performance brute des modèles. Pour les entreprises et les administrations, le sujet devient l’exécution locale des charges IA, la maîtrise des coûts matériels, l’application de contrôles de sécurité continus et l’orchestration d’agents connectés aux systèmes existants.

publicité