Google inaugure Private AI Compute, une nouvelle infrastructure cloud conçue pour exécuter ses modèles Gemini dans un environnement sécurisé. La firme affirme que ce dispositif garantit un niveau de confidentialité équivalent à celui d’un traitement sur appareil, une promesse ambitieuse à l’heure où les arbitrages pour la protection des données structurent les choix technologiques.

À mesure que l’IA s’intègre aux usages quotidiens, la question de la confidentialité devient centrale. Qu’il s’agisse de résumer une réunion, d’anticiper un besoin ou de transcrire une conversation, les traitements d’IA doivent non seulement gagner en performance, mais aussi inspirer confiance. C’est sur ce double enjeu que Google entend se positionner avec Private AI Compute, une nouvelle infrastructure cloud annoncée comme « aussi sécurisée que le traitement local ».

Private AI Compute s’appuie sur deux piliers techniques : les unités de traitement tensoriel (TPU) de Google et une enclave d’exécution scellée baptisée Titanium Intelligence Enclave. Ce périmètre d’exécution, inaccessible même aux opérateurs de Google, permettrait de traiter les requêtes des utilisateurs dans le cloud avec un chiffrement de bout en bout, sans enregistrement ni traçabilité interne. Selon l’équipe technique de Google, cette architecture garantit que « vos données personnelles restent accessibles uniquement par vous, pas même par Google ».

Comment fonctionne l’enclave Titanium Intelligence en pratique ?

Au cœur de Private AI Compute, l’enclave Titanium Intelligence Enclave (TIE) isole chaque traitement dans un environnement matériel scellé, inaccessible aux opérateurs de Google comme aux processus système du cloud. Dès l’émission d’une requête IA, le terminal chiffre les données localement avant de les transmettre à un serveur dédié. Ce serveur vérifie l’intégrité de son code via une chaîne d’attestation cryptographique et exécute le traitement exclusivement à l’intérieur de l’enclave, sans possibilité d’extraction ni de journalisation extérieure.

La pile matérielle repose sur les unités de traitement tensoriel (TPU) de Google, associées à un ancrage matériel de confiance issu de l’architecture Titanium. Le modèle Gemini s’exécute dans une mémoire vive chiffrée, sans stockage persistant. Le résultat est immédiatement re-chiffré et renvoyé à l’appareil utilisateur. À aucun moment, les données ne sont exposées en clair ni enregistrées sur disque. Cette architecture est soumise à un audit indépendant réalisé par le cabinet NCC Group, chargé de valider la sécurité cryptographique et les propriétés d’isolement matériel du système. Google présente ce dispositif comme équivalent, en matière de confidentialité, à un traitement IA effectué directement sur l’appareil.

Vers une généralisation transparente du traitement cloud

L’audit réalisé par le cabinet NCC Group vient étayer cette affirmation, bien que ses résultats publics restent limités à une analyse cryptographique et matérielle. L’argument central avancé par Google est que certaines tâches IA, notamment le raisonnement complexe, les suggestions anticipées ou la traduction en temps réel, nécessitent des ressources de calcul trop élevées pour être exécutées localement. En réponse, la firme propose une exécution externalisée, qu’il assure être équivalente en termes de sécurité.

Sur le plan des usages, Google cite plusieurs fonctionnalités déjà alimentées par Private AI Compute, comme Magic Cue sur les smartphones Pixel, capable d’anticiper les informations utiles lors d’un appel ou d’une réunion, ou encore l’application Recorder, désormais dotée de capacités multilingues de transcription.

Cette approche permet à l’utilisateur de rester dans une interface locale familière, comme l’application Recorder ou le clavier prédictif, tout en profitant de traitements IA exécutés à distance, dans une enclave sécurisée. L’externalisation est invisible à l’usage, mais garantit le cloisonnement, sans exposition directe des données à l’infrastructure cloud.

Reste à savoir si cette approche suffira à convaincre les entreprises, les administrations et les fournisseurs de services confrontés à des contraintes réglementaires fortes. Le choix du cloud public, fût-il encapsulé, reste un obstacle dans de nombreux secteurs sensibles. Par ailleurs, la promesse d’une confidentialité équivalente au traitement sur appareil repose sur un socle matériel fermé, détenu et opéré par Google, ce qui peut poser la question de la vérifiabilité et de la gouvernance. À l’heure où Apple, Amazon et Microsoft avancent leurs propres solutions de confidential computing, cette initiative est une réponse concurrentielle dans une compétition plus large autour de la souveraineté algorithmique et de la confiance dans les architectures cloud.

publicité