Google Cloud et AWS dévoilent une interconnexion privée multicloud censée simplifier l’établissement de liaisons sécurisées entre leurs plateformes. La promesse d’un provisionnement en quelques minutes masque néanmoins une limitation structurelle : le détail des chemins empruntés n’est pas documenté, ce qui compromet la visibilité exhaustive sur le routage des données.

Le dispositif s’appuie sur la solution Cross-Cloud Interconnect (CCI) de Google Cloud, enrichie des capacités d’AWS Interconnect multicloud. Les utilisateurs créent une ressource réseau dans Google Cloud, valident la connexion sur AWS et bénéficient aussitôt d’un lien dédié, chiffré (MACsec), redondant et ajustable. Cette orchestration automatique élimine la nécessité de gérer ports, VLAN ou routeurs physiques et accélère la mise à disposition de la connectivité pour des charges de travail intensives, y compris dans l’intelligence artificielle et le traitement massif de données.

L’automatisation complète du réseau transforme l’approche des directions informatiques : la résilience et la redondance deviennent des attributs natifs, libérant les équipes des tâches de supervision et de gestion physique des infrastructures. Selon les premiers retours, la mise en production d’une interconnexion privée passe de plusieurs semaines à seulement quelques heures, permettant un déploiement accéléré et une réduction sensible de la charge opérationnelle.

Une opacité qui alimente de fortes réserves

Les entreprises en France et en Europe peuvent tirer parti de cette nouvelle connectivité, notamment grâce à la présence de régions Google Cloud et AWS à Paris, Francfort et Londres. Toutefois, la solution, encore en version préliminaire, présente certaines restrictions, notamment en matière de support, de granularité des paramètres et de garanties de service par rapport aux interconnexions physiques traditionnelles. Cela signifie que la solution ne donne pas accès à une visibilité détaillée sur la façon dont les flux transitent physiquement ou logiquement entre les deux clouds. L’opérateur masque la complexité sous une couche d’automatisation-abstraction, ce qui limite la capacité à vérifier où circulent les flux, comment ils sont segmentés ou redondés, et quels équipements ou opérateurs intermédiaires sont impliqués.

Cette solution, bien que séduisante par sa simplicité et son agilité, provoque des interrogations immédiates. Le principal point d’achoppement concerne l’opacité structurelle de cette solution : en masquant l’ensemble de la topologie réseau et des itinéraires empruntés par les flux, la solution prive les entreprises, les administrations et les fournisseurs de services de la capacité à contrôler et à auditer précisément la circulation de leurs données.

Pour des environnements soumis à des exigences strictes de conformité, cette absence de traçabilité détaillée constitue une faille majeure. Il devient difficile, voire impossible, de prouver lors d’un audit que les données n’ont pas transité par des infrastructures ou des territoires non autorisés, ou de s’assurer que l’isolation réseau promise est effectivement garantie à chaque instant.

Ce déficit de visibilité, comparable à l’effet d’un « trou de ver » dans le parcours des données, renverse le paradigme traditionnel de maîtrise du réseau. Là où les responsables IT étaient habitués à cartographier, configurer et surveiller chaque segment de leur infrastructure, ils doivent désormais accepter une logique de confiance envers le fournisseur, sans disposer des éléments techniques pour vérifier ou documenter les trajets effectifs des flux critiques.

Cette situation pose des problèmes pratiques lors des audits de conformité, mais elle complique également la gestion des incidents. En cas de ralentissement, de suspicion de fuite ou de panne, l’absence de détails sur le routage ralentit le diagnostic et peut retarder la remise en service. Les directions informatiques peuvent légitimement s’interroger sur la viabilité d’un modèle aussi abstrait pour des usages sensibles, et sur la capacité du marché à proposer des mécanismes de vérification indépendants ou de certification des parcours de données, afin de lever ces réserves et de concilier automatisation, sécurité et conformité de manière pérenne.

Une « zone d’invisibilité » qui complique le suivi

Ce déficit de transparence crée une forme de « zone d’invisibilité », dans lequel les données franchissent l’interconnexion sans que l’on puisse certifier leur passage ou leur absence de passage par des zones géographiques ou des opérateurs intermédiaires spécifiques. Cette situation complique la production de preuves lors d’un audit, la gestion proactive des incidents, et l’attribution claire des responsabilités en cas d’incident ou de non-conformité.

Pour nombre de responsables de la sécurité des systèmes d’information, cette limitation constitue un frein majeur à l’adoption de ce type de solution dans les contextes les plus exigeants. Elle pose, en filigrane, la question du niveau de contrôle que les organisations sont prêtes à céder à leur fournisseur cloud, au profit d’une simplicité opérationnelle accrue mais au prix d’une gouvernabilité réduite du réseau, et d’une conformité ébréchée.

publicité