par Jérôme Clauzade, head of product, InterCloud

Avec le recul, force est de constater que l'avènement du Cloud computing n'était qu'une conséquence inévitable de deux forces motrices que sont les lois de Moore[1] et de Metcalfe[2]. C'était une certitude que l'informatique finirait par devenir accessible et omniprésente pour que les entreprises aient toutes les raisons de déléguer la gestion des problèmes informatiques à un Datacenter externe plutôt que d'acheter des services externes. Bien qu'elle ne manque pas d'attrait, cette offre de Cloud computing comporte aussi certains défauts qui rejaillissent quand les services cloud se multiplient. De plus en plus d'utilisateurs adoptent des applications qui deviennent tout à coup indispensables au bon fonctionnement de l'entreprise, car nécessaires au travail de beaucoup de salariés. Lorsque cela se produit au sein d'une organisation dont les ressources sont basées dans le Cloud, la loi de Metcalfe s'inverse ; au lieu que les choses s'améliorent à mesure que de plus en plus de personnes se servent d'un réseau en constante complexification pour accéder à un volume important de données, elles deviennent exponentiellement plus complexes, difficiles et coûteuses à gérer. Ceci alimente un vif sentiment de frustration chez les utilisateurs, qui entendent pouvoir accéder aux données facilement, en toute sécurité et sans ralentissement. Pour les équipes IT, l'expérience utilisateur sur le Cloud devient tout aussi importante que la transition vers le Cloud.

La connectivité au Cloud dans les entreprises internationales

Les grandes entreprises sont aujourd'hui disséminées aux quatre coins de la planète. Rapportée à un environnement virtualisé, cette mondialisation signifie que l'application peut se trouver à un endroit, les données à un autre et le fournisseur de services Cloud (FSC) à un troisième, les utilisateurs étant quant à eux présents sur tous les continents. Ce modèle contraint les services IT des entreprises à redoubler d'efforts pour que les données circulent à travers le réseau de façon efficace et sécurisée, et à une vitesse correspondant aux attentes des utilisateurs. Tout le monde s'accorde désormais à reconnaître que l'accès aux données conditionne directement la capacité d'une entreprise à travailler avec agilité et à saisir les opportunités commerciales sans perdre de temps. La connectivité au cloud est donc en train de devenir la priorité absolue des équipes IT.

Pour compliquer un peu plus la donne, la plupart des grandes entreprises ont engagé une transition vers un modèle multi-cloud qui leur offre davantage de possibilités et rééquilibre le rapport de force avec leurs FSC. L'usage multiple d'infrastructures, de plateformes et de logiciels type SaaS complique énormément l'accès aux informations.

Pourquoi une prise de conscience si tardive ? 

Pour développer leur activité, la plupart des FSC misent sur l'accroissement de leur parc d'abonnés plutôt que sur la collaboration avec d'autres prestataires. La concurrence qui fait rage sur le marché a par la suite forcé bon nombre d'entre eux à proposer des connecteurs spécialisés. Mais toutes ces interconnexions doivent se faire rapidement, de façon fiable et en toute sécurité.

En outre, pour profiter pleinement de la flexibilité du Cloud, les entreprises doivent pouvoir redimensionner leurs ressources pour absorber des pics de demandes par nature éphémères, avant de réduire la voilure quand la situation retourne à la normale. Or, les opérateurs télécoms incitent leurs clients à souscrire des contrats de longue durée qui prévoient un débit précis. Pour satisfaire davantage leurs clients, ils devraient songer à proposer des contrats de court terme, offrant une flexibilité nécessaire face aux besoins des entreprises.

Donner la priorité aux données 
La méthode de ségrégation des applications favorise la circulation des flux au sein de l'organisation tout en apportant des garanties supplémentaires en matière de protection et de gouvernance des données les plus précieuses. Néanmoins, avant d'opter pour une stratégie Cloud, il est nécessaire de garder en tête les éléments suivants :

  • Connectivité, performances et gestion des applications sur le Cloud sont autant de priorités stratégiques qui doivent être intégrées à toute analyse prospective aussi en amont que possible. Il importe d'adopter une vision globale des problèmes découlant de l'usage du Cloud en entreprise plutôt que de se précipiter vers le service informatique pour demander la mise en place de telle ou telle fonction métier.
  • Il est fondamental de tendre vers un modèle d'organisation axé sur les applications et non sur la connexion et le débit.
  • La connectivité est avant tout un enjeu commercial.
  • L'expérience utilisateur doit être profitable à l'entreprise.
  • Il est nécessaire d'évaluer les besoins de performance et de connectivité qui en découlent sur une période raisonnablement longue. Ceci dans le but de calibrer pour favoriser la flexibilité de court terme requise pour répondre à des demandes ponctuelles.

[1] La Loi de Moore est un théorème informatique qui remonte aux années 1970. En substance, il veut que la vitesse des processeurs, c'est-à-dire la puissance de calcul générale des ordinateurs, double tous les deux ans. Après vérification auprès de plusieurs techniciens travaillant dans différentes entreprises, il semble que le terme soit relativement méconnu, mais que la théorie reste communément admise – http://www.mooreslaw.org/
[2] L'utilité d'un réseau est proportionnelle au carré du nombre de ses utilisateurs. Sa paternité est attribuée à Robert Metcalfe, un des inventeurs du protocole Ethernet.http://www.businessdictionary.com/definition/Metcalfe-s-Law.html