Les datacenters font aujourd’hui pleinement parti du paysage technologique et demeurent des prérequis indispensables pour accompagner le développement d’un monde numérique « on demand ». Avec l’avènement de la 5G et les différentes évolutions que connait notre économie, il va être plus important que jamais d’avoir la possibilité de stocker un grand nombre de données de manière rapide et sécurisée.

Un flux de données imprévisible

C’est un fait : la quantité de données à traiter et à stocker augmente actuellement dans tous les domaines de l'économie, les consommateurs étant de plus en plus habitués à la notion d’instantanéité, de services web et d’autres applications mobiles. Tout cela sans que la 5G n’est encore été implémentée. Pour répondre à cette forte demande de stockage, les datacenter sont dans l’obligation de suivre les dernières tendances technologiques et optimiser leur vitesse de stockage. On assiste ainsi au passage à la NVMe dans le cadre de l'U.2 sur les appareils des clients et des entreprises, et à la mise en place de la DRAM DDR4 à 3200 MHz.

Les entreprises et les spécialistes avaient bien anticipé que la demande de données allait exploser avec la 5G et Edge, mais ce qu’ils ne pouvaient pas prévoir était la très forte adoption du télétravail à cause de la COVID-19. Une explosion de données s’est en effet produite à un rythme inattendu et il a donc fallu s’adapter rapidement.

Un exemple probant est celui des webinaires en ligne qui ont fleuris pendant toute la période du confinement, quand par le passé ces événements se réalisaient de manière physique.

Avec la numérisation et le volume croissant de données, de plus en plus d'entreprises se sont donc logiquement déjà tournées vers des datacenter externes. Et pour pouvoir garantir l'efficacité de leurs opérations il existe aujourd’hui des exigences auxquelles ils doivent répondre.

Vers une optimisation des données et des datacenters

Les données sont un pilier important de nombreux modèles commerciaux et la sécurité des informations requiert toute l'attention des entreprises et des opérateurs de datacenter, notamment depuis le règlement de base sur la protection des données (RGPD).

Ainsi, pour assurer une protection complète des données, des mesures physiques doivent être combinées à divers outils au niveau du matériel et des logiciels. Les contrôles d'accès aux installations grâce à de cartes d'identité ou de cartes à clés biométriques permettent par exemple de limiter l'accès aux seules personnes autorisées. Dans un même temps, les données doivent être protégées contre les attaques et le sabotage de l'extérieur : Un cryptage approprié des unités de stockage, des solutions matérielles ou encore des logicielles est donc indispensable. Enfin, les solutions dites "powerfail" doivent être utilisées pour protéger de la meilleure manière possible l'équipement et donc les données contre les dommages dus à une perte de puissance inattendue, le tout, de manière exhaustive.

Les développements technologiques constants imposent de nouvelles exigences aux systèmes de datacenter et ces derniers nécessitent une adaptation et un développement appropriés. Les datacenter doivent ainsi toujours maintenir leurs systèmes à jour afin de leur permettre de répondre aux évolutions futures et, surtout, aux besoins de leurs clients à long terme.

Le stockage sur serveur moderne qui permet de traiter sans problème de gros volumes de données sera par exemple privilégié pour faire face aux quantités croissantes de données qui nécessitent de plus en plus d'espace de stockage. Au-delà de ça, il est également envisageable d’optimiser l'architecture de la mémoire en termes de performances, de fiabilité et de durée de vie afin de répondre aux besoins des clients à long terme. C'est là qu'interviennent les SSD de datacenter spécialisés, adaptés à divers scénarios d'application et conçus pour répondre à différentes charges de travail.

Cependant, tout l'espace de stockage est peu utile si les entreprises, en tant que clientes des datacenter, n'ont pas un accès rapide à leurs données. Outre la rapidité du transfert de données entre le datacenter et toutes les installations connectées, Il est donc crucial que les processus de lecture et d'écriture au cœur du datacenter soient fluides et rapides.

Dans certains cas, cela pourra nécessiter une mise à jour des structures obsolètes avec par exemple le remplacement des disques durs (HDD) qui ne sont plus à la hauteur pour augmenter le débit de données et diminuer la latence des grosses transactions, alors que les disques durs à semi-conducteurs le sont.

Les datacenter des entreprises ont montré ces derniers mois que pour survivre, ils doivent faire preuve de flexibilité. Avant que le Coronavirus, la 5G et l'informatique de pointe ne soient les principaux moteurs de la demande des datacenter, le déploiement rapide du travail à domicile est toujours en cours et il faut encore attendre de de voir les impacts à long terme que cela aura sur les datacenter et sur la société.

Par Laurent Sirgy, Directeur SEMEA chez Kingston Technology