La scalabilité, c’est la capacité de changer, à la demande et de manière transparente pour l’utilisateur, l’ordre de grandeur (accroître ou réduire les capacités) d’un équipement, d’un logiciel ou d’un processus informatique. Une capacité qui prend toute sa dimension avec l’évolution des technologies, des volumes de données, du trafic, de la virtualisation et du cloud.
Que signifie scalabilité ?
Sans équivalent dans la langue française, scalabilité est la transcription littérale de l’expression anglaise ‘scalability’, qui vient de ‘to scale’, changer d’échelle. La scalabilité est la capacité d’un dispositif informatique de s’adapter à la demande, c’est à dire principalement d’augmenter cette capacité selon les besoins des utilisateurs.
La scalabilité est désormais une caractéristique cruciale pour les infrastructures et les datacenters, comme pour les services informatiques. Le cloud est un service global, l’utilisateur ne veut pas savoir ce qu’il se passe derrière son écran, et il doit pouvoir augmenter ses capacités de traitement, de stockage, de transmission (bande passante) et de réseaux selon ses besoins.
Techniquement, la scalabilité repose bien sûr sur l’infrastructure physique, qui aujourd’hui est partagée via des technologies comme la virtualisation, mais surtout sur des solutions logicielles et des OS (operating system) spécifiques liés aux équipements 'scalables', qui supportent la demande, les changements d’échelle, l’intégration automatisée, et offrent la vision unique recherchée par l’utilisateur.
L'exemple du stockage des données
La scalabilité pourrait-être assimilée à la simple capacité d’ajouter des capacités de calcul, de stockage ou de réseau à une infrastructure, c’est en réalité plus complexe que cela ! Prenons l’exemple du stockage de données : pour augmenter le volume du stockage, il suffit d’ajouter un disque dur. Mais dans une infrastructure traditionnelle, cette opération va demander d’arrêter le système de stockage pour ajouter le disque, qui au redémarrage devient une entité de stockage supplémentaire (vous avez 3 disques de 1 To, C: + D: + E:, vous ajoutez un quatrième disque F: de 500 Go, vous vous retrouvez avec 4 unités de stockage). Sur un système scalable, les plus évolués vous permettront d’ajouter un disque sans interruption. De plus, la capacité de stockage se cumule. Dans l’exemple précédant, elle est de 1 + 1 + 1 + 0,5 To, mais sur un système scalable elle est passée de 3 à 3,5 To, de manière transparente pour l’utilisateur qui n’a pas à savoir où vont ses données (elles sont sur le stockage porté à 3,5 To, et non pas sur le disque C:, ou D:, ou…).
Les 5 meilleurs articles autour de la scalabilité
Choisir un datacenter pour héberger son infrastructure ou adopter la colocation peut se révéler délicat, face à des opérateurs qui utilisent un même langage... (suite)
L'époque de la nouveauté est passée, le Cloud Computing oscille désormais entre banalité et criticité. Et une majorité de décideurs considèrent aujourd'hui le cloud... (suite)
En 2019, la dépense pour les infrastructures convergées représentera près du quart des investissements dans les datacenters. Quels sont les principaux points de déclenchement... (suite)
La virtualisation consiste à créer une couche logicielle au-dessus des composants d’une infrastructure (serveurs, stockage, réseau…) pour en disposer d’une version virtuelle, unique et... (suite)
En 2017, le datacenter devrait générer un chiffre d’affaires de 4,6 milliards d’euros, en progression de 2,8%. On peut considérer que la progression du... (suite)