Selon les prévisions d’IDC, le nombre de dispositifs IoT s’élèvera à 55,7 milliards d’ici 2025, générant près de 80 zettabytes de données. Gérer de tels volumes, rassembler et analyser des informations exploitables sont plus que jamais essentiels à la transformation des entreprises. Le mot d’ordre : l’observabilité, grâce à laquelle la détection des anomalies est facilitée. A l’instar d’applications métiers traditionnelles et d’infrastructures IT, surveiller l’IoT permet en effet d’identifier d’éventuels problèmes affectant les dispositifs physiques qui y sont connectés.
Dans le cadre de déploiements d’appareils intelligents pour moderniser et automatiser les processus dans les environnements industriels, les anomalies constituent un atout, en ce sens qu’elles permettent d’indiquer les besoins d’entretiens de machine. Ainsi, la détection précoce d’un problème potentiel peut contribuer à réduire les temps d’arrêt non planifiés et donc, à augmenter la productivité.
Toutefois, centraliser toutes ces données peut se révéler complexe face à la quantité d’informations disponibles et leur croissance continue ; il est en effet difficile d’identifier celles devant être transférées de celles qui sont absolument nécessaires. L’edge computing, ou informatique de périphérie, permet de gérer cette surcharge et d’améliorer l’efficacité de la détection des anomalies de l’IoT. Grâce à cela, il est possible de comprendre les architectures réseau émergentes et leur contribution future à la croissance des entreprises.
Stratégie autour de la détection des anomalies dans l’IoT
L’automatisation des décisions et des alertes de routine confère aux seuils statiques – ou valeurs de références fixes – certains points forts par rapport aux stratégies traditionnelles. Cependant, afin d’en tirer parti, les administrateurs réseau ont besoin des niveaux de connaissance appropriés, lesquels n’évoluent cependant pas en fonction des circonstances ; si bien qu’il est difficile de les maintenir dans des environnements en perpétuel mouvement. Pour pallier cette lacune, les méthodes fondées sur le machine learning (ML), supervisées ou non, ajoutent de l’intelligence à la détection automatique des anomalies. En se familiarisant en permanence avec le comportement des données, le système s’adapte mieux aux changements et est plus à même de gérer des environnements en mutation.
Or, l’augmentation attendue du volume de données généré par les dispositifs IoT, dans les mois et années à venir, se traduira par des hausses connexes de la bande passante du réseau, du volume de stockage et des besoins de calcul. Par conséquent, l’utilisation de ressources centralisées dans le cloud, pour le traitement des données IoT en temps réel, se révèle est de plus en plus coûteuse et prolonge les latences.
L’edge computing permet de limiter ces problèmes et d’exploiter plus efficacement la détection d’anomalies fondée sur le ML. Rapprocher les workloads de traitement des informations critiques au plus près de la source des données – c’est-à-dire les terminaux –permet de les réduire dans le cloud. Grâce à cela, les équipes IT bénéficient d’un traitement des données sans latence, d’une amélioration du délai de réponse, et d’une réduction de la charge du réseau et des coûts associés au cloud.
En outre, l’informatique de périphérie sert également à contrôler la maintenance des machines en temps réel et à détecter les potentielles défaillances des systèmes. De même, un traitement des données sans latence permet de signaler les incidents majeurs en temps quasi réel.
La détection d’anomalies dans l’edge computing
Il existe différents types d’architectures pour l’informatique de périphérie. Elle peut notamment être déployée à 100 % ou s’appuyer sur des modèles hybrides combinant l’edge computing et le cloud computing.
Avec cette approche, la passerelle IoT reçoit les données issues des dispositifs à l’aide de divers protocoles pour les transmettre à une couche de messagerie. Dans un second temps, les composants chargés du traitement des données à la périphérie les extraient, les traitent et les envoient vers le cloud afin de générer des alertes et des rapports centralisés. Un module de surveillance et de gestion signale ensuite les problèmes opérationnels au cloud et synchronise les composants avec les données de configuration gérées de manière centralisée à partir du cloud.
L’ajout de l’Intelligence Artificielle
Lorsque l’intelligence artificielle (IA) est ajoutée, la passerelle IoT intelligente joue le rôle de routeur de données. En outre, la couche de messagerie comporte des files d’attente distinctes pour chaque méthode de détection des anomalies. Selon celle qui est appliquée, la passerelle prend des décisions de routage, dictées par la configuration, et place les données dans les files d’attente respectives. Dans un second temps, les processeurs de détection des anomalies extraient les données des files d’attente respectives et signalent au cloud si une anomalie est détectée, tout en conservant les informations dans une base de données. Ensuite, les données sont récupérées en vrac, sont compressées puis envoyées au cloud afin de procéder à l’entraînement des modèles ML, en vue de la détection supervisée des anomalies. C’est également le cas pour les modèles qui peuvent être récupérés dans le cloud et ajoutés à des bases de données spécialisées.
Mise en œuvre modernisée de l’IoT
Un avenir plus ou moins proche verra la plupart des entreprises opter pour une approche IT hybride intégrant à la fois l’informatique centralisée et celle de périphérie, dans le cadre d’un paysage IT encore plus complexe. L’étape suivante consistera à recourir à l’edge computing afin de recueillir des données, de procéder à des analyses et de prendre des mesures. Aujourd’hui, il est possible de recueillir des données, de les analyser et d’agir en conséquence lorsqu’elles sont générées en quasi-instantanéité, ce qui augure la fin prochaine des moteurs de calcul centralisés et des analyses qui ne sont pas en temps réel.
L’automatisation intelligente trouve ici tout son sens : elle permet d’orchestrer les données périphériques les plus importantes avec les pipelines de données centralisés pour obtenir en temps réel les informations nécessaires de manière automatisée.
Les volumes de données et la vélocité d’une mise en œuvre moderne de l’IoT exigent une détection des anomalies évolutive, efficace et en temps réel. L’informatique de périphérie répond à ce besoin, tout en évitant les coûts élevés du cloud et les latences de traitements. C’est pourquoi, afin que les organisations prospèrent et poursuivent leur chemin vers l’Autonomous Digital Enterprise, ces dernières doivent mettre en place des modèles en adéquation avec l’instantanéité de l’informatique moderne.
Par Margaret Lee, vice-présidente senior et directrice générale Digital Service and Operations Management chez BMC Software