Edge computing : calculer en périphérie du réseau

Au plus tard en 2020 l’« Internet des objets » (IdO) qui définit l’interconnexion des systèmes électroniques, du pèse-personne électronique jusqu’aux sites de production industrielle, devrait inclure environ 50 milliards d’objets connectés dans le monde entier. Tous ces objets génèrent des données en continu, qui nécessitent d’être stockées et évaluées en temps réel pour des applications critiques. Ceci représente une tâche que les solutions Cloud ne seront pas en mesure de maîtriser.

Ce qui risque de freiner ce développement est avant tout la question du déploiement des réseaux à haut débit, ainsi que les temps de latence dans le transfert des données entre les serveurs Cloud centraux et les équipements terminaux en périphérie du réseau. L’edge computing évite ces deux problèmes et introduit de cette manière un changement de paradigme dans l’univers du Cloud computing.

L’edge computing, c’est quoi ?

L’edge computing se définit comme une architecture informatique destinée aux environnements IoT, dans laquelle les ressources informatiques, la capacité de stockage et la puissance de calcul sont maintenues au plus près des équipements terminaux et des capteurs qui génèrent les données. Le concept représente ainsi une alternative aux solutions de Cloud ordinaires avec des serveurs centralisés.

Le mot « edge » vient de l’anglais et signifie bord ou périphérie. Ce terme fait allusion au fait que le traitement des données ne se fait plus dans le Cloud, mais il est décentralisé, en périphérie du réseau. L’edge computing peut ainsi offrir une option que le Cloud n’est pas capable de proposer, à savoir des serveurs capables d’interpréter sans délai les données de masse générées par des usines, des réseaux de distributions ou des systèmes de circulation « intelligents », et de prendre immédiatement les mesures nécessaires en cas d’incidents.

Présentation des fondamentaux de l’edge computing

L’edge computing est une nouvelle forme d’architecture pour les environnements IoT bien qu’elle n’ait pas directement recours à de nouveaux composants de réseau. Au contraire, elle s’appuie sur d’anciennes technologies dans un format compact, mais employées sous une nouvelle dénomination. Voici un aperçu des éléments de base de l’edge computing.

  • Edge : dans le jargon informatique, le mot « edge » désigne la périphérie du réseau. Quant à savoir quels seront les éléments implantés en périphérie du réseau, cela dépendra de la configuration mise en place. Dans des réseaux de télécommunication, ce sera par exemple un téléphone portable qui représentera la périphérie du réseau ; et dans un système de voitures autonomes interconnectées, chaque véhicule. On parle dans ce cas d’un edge device.
  • Edge device : on entend par edge device tout appareil situé en périphérie de réseau, et qui génère des données. Les sources de données possibles sont par exemple des capteurs, des machines, des véhicules ou tous les autres appareils intelligents dans un environnement IoT, comme des lave-linge, des détecteurs d’incendie, des ampoules ou des thermostats pour radiateur.
  • La passerelle Edge : la passerelle Edge est une instance de calcul implantée à la transition entre deux réseaux. Dans des environnements IoT, les passerelles Edge sont utilisées comme nœuds entre l’Internet des objets et le réseau central. On a aussi de puissants routeurs, capables de supporter de fortes puissances de calcul pour assurer le traitement des données de l’IoT. Pour ce faire, les passerelles Edge disposent de diverses interfaces permettant de transférer les données soit par câble, soit par radio, et de standards de communication, comme l’Ethernet, le Wifi, le Bluetooth, la téléphonie 3G, LTE, Zigbee, Z-Wave, CAN-Bus, Modbus, BACnet ou SCADA.

L’edge computing vs. le fog computing

L’approche visant à étendre le Cloud autour des instances de calcul n’est pas une nouveauté. En 2014 déjà, le groupe américain Cisco a créé le terme marketing, baptisé « fog computing». Ce concept est basé sur un traitement décentralisé des données dans ce qu’on appelle des « nœuds fogs ». Les nœuds fog représentent de mini-centres de calcul positionnés en amont du Cloud, constituant une couche intermédiaire dans le réseau (on parle de « couche fog »). Les données générées dans des environnements IoT ne sont donc pas directement envoyées dans le Cloud. Elles sont d’abord collectées dans des Fog Notes, où elles sont interprétées avant d’être sélectionnées pour d’autres formes de traitement.

L’edge computing est aujourd’hui considéré comme faisant partie du fog computing, où les ressources informatiques, comme la puissance de calcul et la capacité de stockage sont rapprochées au mieux des équipements IoT, en périphérie du réseau. Dans des architectures de fog computing, le traitement des données se fait d’abord au niveau de la couche fog, tandis que dans des concepts d’edge computing, il est exécuté au niveau de puissants routeurs IoT, et même parfois directement sur les appareils ou sur les capteurs. On peut parfaitement envisager une combinaison des deux concepts. Le graphique ci-dessous montre une telle architecture avec une couche Cloud, fog et edge.

Conseil

Les architectures de référence pour les environnements de fog computing et edge computing sont développées dans le cadre de l’Open Fog Consortium, un lieu de rencontre entre l’industrie et la science.

Pourquoi l’edge computing ?

Une tour de forage génère 500 gigaoctets de données par semaine. La turbine d’un avion de ligne en fournit 10 téraoctets en 30 minutes. Les réseaux mobiles ne permettent pas de télécharger ni de traiter des données d’un tel volume, ni dans le Cloud, ni en temps réel. Vient s’ajouter le fait que le recours à des réseaux tiers est un élément très coûteux. Il faut donc décider sur place quelles informations générées doivent être transférées vers des systèmes centralisés pour y être enregistrées, et quelles données peuvent être interprétées sur place. C’est là que l’edge computing entre en jeu.

Aujourd’hui, ce sont les grands centres de données qui supportent l’essentiel du volume des données générées par Internet. Les sources de données sont pourtant très souvent mobiles de nos jours, et trop éloignées des gros ordinateurs centraux pour pouvoir garantir un délai de latence satisfaisant. Ce facteur pose problème, en particulier pour les applications critiques comme l’apprentissage automatique et la maintenance prévisionnelle, deux concepts de base du projet allemand Industrie 4.0 par exemple avec des sites de production intelligents et des réseaux de distribution auto-régulés.

Note

La maintenance prédictive (ou maintenance prévisionnelle) a pour but de révolutionner la maintenance et l’entretien des sites de production dans le futur. Au lieu d’afficher des pannes et des dérangements en cours, ce nouveau concept de maintenance souhaite identifier les risques de panne au moyen de systèmes de surveillance intelligents, avant qu’un véritable défaut ne survienne.

Même l’internet à usage domestique comme le streaming de vidéos à haute résolution sur des appareils mobiles, la réalité virtuelle et la réalité augmentée mettent en péril les concepts de Cloud classiques, ainsi que la bande passante des réseaux existants. Avec une vitesse de transfert pouvant atteindre les 10 Go/s, la mise en œuvre du nouveau réseau mobile 5G ne devrait pas régler le problème du volume croissant des données, mais plutôt l’accentuer, à en croire les experts en la matière. L’edge computing n’est pas non plus la solution à ce problème. Le concept pose cependant bien la question de savoir si toutes les données d’un environnement IoT doivent bel et bien être traitées dans le Cloud.

L’edge computing ne vient donc pas remplacer le Cloud, mais il le complète avec les fonctionnalités suivantes :

  • Saisie et agrégation des données : alors que les sources de données des architectures Cloud classiques acheminent toutes leurs données vers un ordinateur central du Cloud pour y être traitées, l’edge computing mise sur un enregistrement des données au plus près de la source. On utilise pour ce faire des micro-contrôleurs, directement installés sur l’appareil. On les appelle aussi des passerelles Edge, c’est à dire des routeurs intelligents. Ils ont pour fonction de collecter les données provenant de différents appareils, et permettent un pré-traitement et une sélection du jeu de données. Le téléchargement des données vers le Cloud ne se fait alors que si les informations ne peuvent pas être traitées en mode local, si des analyses plus poussées doivent être effectuées ou s’il y a un besoin d’archiver certaines informations.
  • Saisie des données en mode local : l’edge computing s’impose avant tout lorsque les données générées sur le plan local nécessitent la présence d’une très large bande passante. En cas de gros volume de données, il n’est généralement pas possible de procéder à un transfert en temps réel de l’ordinateur central vers le Cloud. On évite ce problème si on opte pour un traitement décentralisé de ces données en périphérie du réseau. Dans un tel scénario, les passerelles Edge font office de serveurs de réplication dans un réseau de diffusion de contenu.
  • Monitoring piloté par intelligence artificielle : les unités de calcul décentralisées d’un environnement edge computing accueillent les données, les interprètent, et permettent de cette manière d’assurer un suivi continu des appareils connectés. Avec des algorithmes du Machine Learning, il est possible de réaliser en temps réel un contrôle des statuts, par exemple pour contrôler et optimiser les processus de fabrication dans des usines intelligentes.
  • La communication M2M : l’abréviation « M2M » désigne l’expression « Machine-to-Machine », une manière de décrire la communication automatique entre des machines en s’appuyant sur toutes sortes de standards pour la communication. On pourrait par exemple recourir à la communication M2M pour surveiller à distance des machines et des sites de production dans un environnement IoT, comme une usine intelligente. Dans le cadre du suivi des procédés, il est à la fois possible d’assurer une communication entre les équipements terminaux, mais également une communication avec une centrale, qui fonctionnera comme instance de contrôle (monitoring piloté par intelligence artificielle).

Le graphique ci-dessous illustre le principe de based’une architecture Cloud décentralisée, dans laquelle on a inséré des passerelles Edge comme des instances intermédiaires entre un ordinateur central dans un Cloud privé ou public et les terminaux IoT fonctionnant en périphérie d’un réseau.

Domaines d’application pour des architectures d’edge computing

Les domaines d’application pour l’edge computing viennent généralement de l’environnement IoT, et représentent des projets d’avenir au même titre que le concept d’une architecture Cloud décentralisée. Un facteur de croissance important de la technologie de l’edge computing est le besoin croissant de systèmes de communication fonctionnant en temps réel. Le traitement décentralisé des données est une technologie clé pour les projets suivants :

  • La communication de véhicule à véhicule
  • Le réseau électrique intelligent
  • Le Smart Factory

Un véhicule connecté sera, à l’avenir, bien plus qu’un véhicule équipé d’une connexion Internet. L’avenir de la mobilité permettra la mise en place de systèmes d’avertissement gérés par le Cloud, permettant une communication de véhicule à véhicule, voire des moyens de transport complètement autonomes dans leurs déplacements. La condition est cependant que l’on puisse disposer d’une infrastructure permettant d’échanger en temps réel des données entre les véhicules et les différents points de communication tout au long de l’itinéraire.

Le réseau électrique de l’avenir sera lui aussi adaptatif, capable de s’auto-réguler automatiquement en fonction des besoins grâce à des systèmes de gestion d’énergie décentralisés. Dans le cadre de la transition énergétique, le réseau électrique intelligent représentera une technologie clé. En effet, la conversion vers des énergies renouvelables impose de nouveaux défis aux réseaux d’électricité. Au lieu d’avoir quelques gros producteurs centralisés, on aura de nombreux petits producteurs d’énergie décentralisés, avec des dispositifs de stockage qui devront être connectés avec les consommateurs. Certains d’entre eux seront eux-mêmes producteurs d’énergie, notamment grâce aux panneaux solaires. Les réseaux intelligents ne se contentent plus de transporter le courant électrique : ils délivrent également des données applicables à sa production, son stockage et sa consommation. Ceci permet à chacun de réagir en temps réel à la moindre modification. L’objectif est de maintenir la stabilité des réseaux électriques malgré leur complexité croissante, et d’assurer une meilleure efficacité grâce à une compensation intelligente des charges. Pour pouvoir saisir, sauvegarder et traiter dans les meilleurs délais toutes ces données générées, nous avons besoin de nouveaux concepts de Cloud, comme l’edge computing et le fog computing.

On entend par Smart Factory (usine du futur) des sites de production et des systèmes de logistique qui s'organisent eux-mêmes. Dans l’idéal, on n’a aucune intervention humaine dans de tels concepts. Une usine intelligente est un système interconnecté d’appareils, de machines et de capteurs qui communiquent entre eux par Internet pour mener à terme des processus de fabrication. Le système de communication Smart Factory inclut le produit fini dans son système et peut donc réagir automatiquement face à des demandes de devis. Grâce à des systèmes d’intelligence artificielle et à un apprentissage autonome, on a des processus de maintenance qui optimisent la production. Ceci demande une infrastructure informatique capable de traiter sans délai de gros volumes de données, et de réagir rapidement à des imprévus. Les systèmes de Cloud traditionnels échouent pour des raisons de latence. Les architectures d’edge computing et de fog computing peuvent résoudre ce problème grâce à un traitement des données partagé.

Edge computing : aperçu des avantages et des inconvénients

Le tableau ci-dessous vous présente les avantages et les inconvénients d’une architecture d’edge computing, comparée à un environnement Cloud traditionnel.

Avantages Inconvénients
Traitement des données en temps réel : dans les architectures d’edge computing, les unités de calcul sont rapprochées au mieux des sources de données, favorisant une communication en temps réel. On évite ainsi le problème récurrent de latence rencontré avec les solutions de Cloud plus classiques. Des structures de réseau plus complexes : un système de répartition est bien plus compliqué qu’une architecture Cloud centralisée. Un environnement edge computing est un ensemble hétérogène de plusieurs composants de réseau, venant en partie de divers fabricants, et qui communiquent les uns avec les autres grâce à un grand nombre d’interfaces.
Débit utile réduit : l’edge computing privilégie un traitement des données en local au niveau de passerelles Edge. Seules les données qui ne peuvent pas être traitées localement, ou qui doivent être mises en lignes, sont téléchargées dans le Cloud. Les frais d’acquisition pour du matériel Edge : les architectures de Cloud se distinguent avant tout par le fait qu’il y a beaucoup moins d’équipement matériel à installer localement. On perd cet avantage si on opte pour des systèmes à répartition.
La sécurité des données : avec une solution d’edge computing, la majeure partie des données reste dans le réseau local. Dans une telle configuration, les entreprises auront plus de facilité à se conformer aux exigences de conformité. Un niveau de maintenance plus élevé : un système décentralisé, composé de plusieurs nœuds de calcul, nécessite plus d’entretien et d’administration qu’un centre de données.

Attendez ! Nous avons quelque chose pour vous !
Votre messagerie professionnelle

Créez une adresse personnalisée
Affichez votre sérieux sur Internet
Nom de domaine inclus
À partir d' 1 € TTC/mois
Conseiller personnel inclus !