Le cloud, l’externalisation des applications et des données, la distance et le manque de visibilité élèvent le niveau de complexité des réseaux, et génèrent de nouveaux problèmes de latence sur les services de l’entreprise.
Lorsque les applications s’exécutaient sur des systèmes internes, et que les données étaient hébergées localement, les choses étaient plus simples. L’équipe informatique pouvait définir et contrôler des chemins réseaux clairs entre l’entreprise, les utilisateurs et le datacenter. Le niveau de contrôle et de régulation permettait d’identifier, de dépanner et de résoudre les problèmes rapidement. Et la latence restait un problème de génération d’équipement auquel toutes les organisations étaient soumises.
Seulement voilà, depuis une décennie les organisations ont externalisé leurs applications et données vers des fournisseurs tiers et vers le cloud, ajoutant plus de complexité et de nouvelles variables réseau qui sont autant de points faibles potentiels qui peuvent affecter les performances du réseau. Et si ces services peuvent être majoritairement considérés comme robustes et fiables, la moindre panne peut désormais affecter des millions de personnes !
Latence en cascade...
En effet, pour certaines organisations, la latence peut entraîner une multitude de problèmes en cascade, en particulier lorsque de gros fichiers de données ou des éléments tels que des dossiers médicaux sont transférés d'un emplacement à un autre. La qualité des appels VoIP peut également être un inconvénient majeur pour les transactions de données volumineuses telles que la réplication de base de données, ce qui entraîne des processus plus longs que prévu.
Quant aux données provenant d’applications comme Salesforce ou Office 365, elles ne transitent plus par le datacenter, puisqu’elles n’y sont pas hébergées. Mais elles constituent autant de parties mobiles d’un paysage réseau que les équipes informatiques ne peuvent plus contrôler…
Si on exclut la refonte du système d’information pour mettre en place un meilleur diagnostique des performances du réseau, ou la création d’un tunnel MPLS entre le datacenter et le siège de l’entreprise et éventuellement des succursales - deux solutions si coûteuses que la plupart des entreprises n’y adhèrent pas -, les utilisateurs doivent-ils continuer d’endurer les problèmes de latence ?
L'IA face à la latence
Dans une certaine mesure, la latence peut être atténuée en utilisant les méthodes traditionnelles de surveillance des performances du réseau. Mais par sa nature même, la latence est imprévisible et difficile à gérer. Et si l’on se tournait vers l'utilisation de l'Intelligence Artificielle (IA) ? L’IA se conjugue aujourd’hui à tous les temps, alors pourquoi pas à celui des réseaux ?
En effet, les exemples se multiplient de progrès obtenus en adoptant des formes d’apprentissage automatique, autrement dit de Machine Learning. Malheureusement, nous ne sommes pas à un point où les techniques de Machine Learning peuvent réduire considérablement la latence ! Par exemple, on ne peut pas prédire avec précision quand un commutateur ou un routeur spécifique sera surchargé de trafic. L'équipement peut subir une rafale soudaine de données, provoquant une milliseconde ou même dix millisecondes de retard. Le fait est que, une fois que l'équipement est surchargé, le Machine Learning n'est pas encore en mesure d'aider avec ces changements soudains, qui se traduisent généralement par une file d'attente de paquets à traiter.
Surveillance distribuée
Bien sûr, il ne s’agit pas de rejeter ces technologies, même si elles n’apportent pas la réponse attendue. Il n’est pas non plus envisageable de s'appuyer uniquement sur ce type de modèle de surveillance de réseau centralisé. Les équipes informatiques doivent compléter leurs outils traditionnels en surveillant la connexion de données à chaque site ou succursale distant. Et si les données sont distribuées, la surveillance du réseau doit l'être également.
Si la prolifération des ressources cloud et des outils SaaS entre dans la démarche de transformation numérique des entreprises, la DSI doit affronter le défi de repenser son approche de la gestion du réseau dans un mode décentralisé. Elle doit surtout assurer la qualité du service pour les utilisateurs finaux. Ce qui va nécessiter de transiter vers un mode de surveillance et de dépannage plus proactif pour résoudre les goulots d’étranglement de réseau ou d’application avant même que l’utilisateur ne les remarque. L’IA y aura certainement sa place, mais dans l’état actuel des technologies, elles n’est pas une priorité.
Image d’entête 576552008 @ iStock macrovector