Google a réalisé, au quatrième trimestre 2014, le plus gros investissement dans son infrastructure de datacenter : 3,5 milliards de dollars ! Une mise en application du Théorème de Brewer, par le VP Infrastructure de Google, Eric Brewer ?

Voilà un chiffre à faire rêver plus d'un DSI : 3,5 milliards de dollars. C'est le chiffre qui figure au bout de la ligne « Real estate purchases, production equipment, and data center construction » du bilan de Google au dernier trimestre 2014. Pour résumer, Google a investi 3,5 milliards de dollars dans ses datacenters au cours d'un seul trimestre !

Qui peut rivaliser avec Google ?

Le moteur de recherche explose ses investissements dans les infrastructures. Et prend définitivement la tête face à ses concurrents, Amazon, Microsoft, et Facebook. Une manière également de rappeler que sur le Web, un grand succès repose sur la construction de datacenters et sur la capacité à les remplir d'équipements.

L'investissement de Google dans son infrastructure est massif, sur les quatre trimestres 2014, il a frôlé les 11 milliards de dollars (10,96). Sur le dernier trimestre, Microsoft a investi 1,5 milliard de dollars, soit 5,3 milliards sur l'année 2014 ; Amazon a investi 1,1 milliard de dollars, ce qui porte ses investissements à 4,9 milliards pour l'année 2014 ; et Facebook a investi 1,8 milliard de dollars… sur l'année !

Le théorème PAC

La question est de savoir quel est le sens de ces investissements ? Google renforce son infrastructure de datacenter, certes, mais pour répondre à quels objectifs ? Un élément de réponse pourrait venir de son VP Infrastructure, Eric Brewer. Brillant universitaire ayant enseigné à l'University of California, à Berkeley, celui-ci est l'auteur du théorème PAC, pour Concistency, Availability, et Partition tolerance.

Aussi connu sous l'appellation Théorème de Brewer, le théorème PAC affirme qu'il est impossible pour un système informatique distribué de fournir simultanément les trois garanties suivantes :

  • Consistance - tous les noeuds voient les mêmes données en même temps
  • Disponibilité - une garantie que chaque demande reçoit une réponse, à savoir si elle a réussi ou échoué
  • Tolérance de partage - le système continue à fonctionner malgré la perte de message arbitraire ou l'échec d'une partie du système

Tiering de services dans le datacenter

L'application du théorème se traduit généralement par des modèles dits de cohérence faible, qui au lieu de s'assurer de produire 2 garanties sur 3, mettent en place des partitions qui visent des choix différents avec plusieurs niveaux de cohérence. Concrètement, est déployé dans le datacenter un tiering des services, afin d'offrir une haute disponibilité aux services de premier niveau, ceux sur lesquels les 'clients' sont les plus sensibles. Ce qui se traduit par une démarche de prudence associée à une élévation de l'infrastructure, donc des investissements plus lourds, à la mesure du service que l'organisation cherche à rendre.