Dans le monde de l’Internet des objets (IoT), les machines génèrent en per­ma­nence des données devant être stockées et évaluées en temps réel pour des ap­pli­ca­tions critiques. L’edge computing évalue ces données di­rec­te­ment à la source et introduit ainsi un chan­ge­ment de paradigme dans l’univers du Cloud computing.

L’edge computing, c’est quoi ?

L’edge computing se définit comme une ar­chi­tec­ture in­for­ma­tique destinée aux en­vi­ron­ne­ments IoT, dans laquelle les res­sources in­for­ma­tiques, la capacité de stockage et la puissance de calcul sont main­te­nues au plus près des équi­pe­ments terminaux et des capteurs qui génèrent les données. Le concept re­pré­sente ainsi une al­ter­na­tive aux solutions de Cloud or­di­naires avec des serveurs cen­tra­li­sés.

Le mot edge vient de l’anglais et signifie bord ou pé­ri­phé­rie. Ce terme fait allusion au fait que le trai­te­ment des données ne se fait plus dans le Cloud, mais il est dé­cen­tra­lisé, en pé­ri­phé­rie du réseau. L’edge computing peut ainsi offrir une option que le Cloud n’est pas capable de proposer, à savoir des serveurs capables d’in­ter­pré­ter sans délai les données de masse générées par des usines, des réseaux de dis­tri­bu­tions ou des systèmes de cir­cu­la­tion « in­tel­li­gents », et de prendre im­mé­dia­te­ment les mesures né­ces­saires en cas d’incidents.

Pré­sen­ta­tion des fon­da­men­taux de l’edge computing

L’edge computing s’appuie sur d’anciennes tech­no­lo­gies dans un format compact, mais employées sous une nouvelle dé­no­mi­na­tion. Voici un aperçu des éléments de base de l’edge computing.

  • Edge : dans le jargon in­for­ma­tique, « edge » désigne la pé­ri­phé­rie du réseau. Quant à savoir quels seront les éléments implantés en pé­ri­phé­rie du réseau, cela dépendra de la con­fi­gu­ra­tion mise en place. Dans des réseaux de té­lé­com­mu­ni­ca­tion, ce sera par exemple un téléphone portable qui re­pré­sen­tera la pé­ri­phé­rie du réseau ; et dans un système de voitures autonomes in­ter­con­nec­tées, chaque véhicule.
  • Edge device : on entend par « edge device » tout appareil situé en pé­ri­phé­rie de réseau, et qui génère des données. Les sources de données possibles sont par exemple des capteurs, des machines, des véhicules ou tous les autres appareils in­tel­li­gents dans un en­vi­ron­ne­ment IoT, comme des lave-linge, des dé­tec­teurs d’incendie, des ampoules ou des ther­mos­tats pour radiateur.
  • Pas­se­relle edge : la pas­se­relle edge est une instance de calcul implantée à la tran­si­tion entre deux réseaux. Dans des en­vi­ron­ne­ments IoT, les pas­se­relles edge sont utilisées comme nœuds entre l’Internet des objets et le réseau central.

L’edge computing vs le fog computing

L’approche visant à étendre le Cloud autour des instances de calcul n’est pas une nouveauté. En 2014 déjà, le groupe américain Cisco a créé le terme marketing, baptisé fog computing. Les données générées dans des en­vi­ron­ne­ments IoT ne sont ici pas di­rec­te­ment envoyées dans le Cloud. Elles sont d’abord col­lec­tées dans des fog Notes, où elles sont in­ter­pré­tées avant d’être sé­lec­tion­nées pour d’autres formes de trai­te­ment.

L’edge computing est aujourd’hui considéré comme faisant partie du fog computing, où les res­sources in­for­ma­tiques, comme la puissance de calcul et la capacité de stockage sont rap­pro­chées au mieux des équi­pe­ments IoT, en pé­ri­phé­rie du réseau. On peut par­fai­te­ment envisager une com­bi­nai­son des deux concepts. Le schéma ci-dessous montre une telle ar­chi­tec­ture avec une couche Cloud, fog et edge.

Image: Représentation schématique d’une architecture Cloud avec une couche Cloud, fog et edge
Une ar­chi­tec­ture Cloud basée combinant une couche Cloud, fog et edge est possible et se re­pré­sente ainsi sous forme de schéma.
Conseil

Les ar­chi­tec­tures de référence pour les en­vi­ron­ne­ments de fog computing et edge computing sont dé­ve­lop­pées dans le cadre de l’Open Fog Con­sor­tium, un lieu de rencontre entre l’industrie et la science.

Pourquoi l’edge computing ?

Aujourd’hui, ce sont les grands centres de données qui sup­por­tent l’essentiel du volume des données générées par Internet. Les sources de données sont pourtant très souvent mobiles de nos jours, et trop éloignées des gros or­di­na­teurs centraux pour pouvoir garantir un délai de latence sa­tis­fai­sant. Ce facteur pose problème, en par­ti­cu­lier pour les ap­pli­ca­tions critiques comme l’ap­pren­tis­sage au­to­ma­tique et la main­te­nance pré­vi­sion­nelle, deux concepts de base du projet allemand Industrie 4.0.

Note

La main­te­nance pré­dic­tive (ou main­te­nance pré­vi­sion­nelle) a pour but de ré­vo­lu­tion­ner la main­te­nance et l’entretien des sites de pro­duc­tion dans le futur. Ce nouveau concept de main­te­nance souhaite iden­ti­fier les risques de panne au moyen de systèmes de sur­veil­lance in­tel­li­gents, avant qu’un véritable défaut ne survienne.

L’edge computing ne vient donc pas remplacer le Cloud, mais il le complète avec les fonc­tion­na­li­tés suivantes :

  • Saisie et agré­ga­tion des données : l’edge computing mise sur un en­re­gis­tre­ment des données au plus près de la source, y compris le pré­trai­te­ment et la sélection du jeu de données. Le té­lé­char­ge­ment des données vers le Cloud ne se fait alors que si les in­for­ma­tions ne peuvent pas être traitées en mode local, si des analyses plus poussées doivent être ef­fec­tuées ou s’il y a un besoin d’archiver certaines in­for­ma­tions.
  • Saisie des données en mode local : en cas de gros volume de données, il n’est gé­né­ra­le­ment pas possible de procéder à un transfert en temps réel de l’or­di­na­teur central vers le Cloud. On évite ce problème si on opte pour un trai­te­ment dé­cen­tra­lisé de ces données en pé­ri­phé­rie du réseau. Dans un tel scénario, les pas­se­relles edge font office de serveurs de ré­pli­ca­tion dans un réseau de diffusion de contenu.
  • Mo­ni­to­ring piloté par in­tel­li­gence ar­ti­fi­cielle : l’edge computing permet une sur­veil­lance continue des appareils connectés. Combiné à des al­go­rithmes d’ap­pren­tis­sage au­to­ma­tique, il permet de contrôler l’état des dis­po­si­tifs en temps réel.
  • Com­mu­ni­ca­tion M2M : l’edge computing est souvent utilisé en relation avec la com­mu­ni­ca­tion M2M afin de permettre une com­mu­ni­ca­tion directe entre les appareils en réseau.

Le schéma suivant illustre le principe de base d’une ar­chi­tec­ture Cloud dé­cen­tra­li­sée, dans laquelle les pas­se­relles de pé­ri­phé­rie font office d’instance in­ter­mé­diaire entre un or­di­na­teur central dans le Cloud et les appareils IoT en pé­ri­phé­rie du réseau.

Image: Représentation schématique d’un environnement edge computing
Les pas­se­relles edge reçoivent des données de l’Internet des objets et les té­lé­char­gent à la demande dans le Cloud public ou dans un data center privé.

Domaines d’ap­pli­ca­tion pour des ar­chi­tec­tures d’edge computing

Les domaines d’ap­pli­ca­tion pour l’edge computing viennent gé­né­ra­le­ment de l’en­vi­ron­ne­ment IoT. Un facteur de crois­sance important de la tech­no­lo­gie de l’edge computing est le besoin croissant de systèmes de com­mu­ni­ca­tion fonc­tion­nant en temps réel. Le trai­te­ment dé­cen­tra­lisé des données est une tech­no­lo­gie clé pour les projets suivants :

  • La com­mu­ni­ca­tion de véhicule à véhicule : l’edge computing est important pour les systèmes d’alerte précoce basés sur le Cloud ou les moyens de transport autonomes.
  • Le réseau élec­trique in­tel­li­gent : grâce à des systèmes éner­gé­tiques dé­cen­tra­li­sés, le réseau élec­trique doit s’adapter aux va­ria­tions de puissance. Les données trans­por­tées vers les pro­duc­teurs per­met­tent de réagir en temps réel aux chan­ge­ments de con­som­ma­tion.
  • Le Smart Factory : des ins­tal­la­tions de pro­duc­tion et des systèmes lo­gis­tiques qui s’or­ga­ni­sent eux-mêmes peuvent être réalisés grâce à l’edge computing.

Les avantages de l’edge computing

Le tableau ci-dessous vous présente les avantages d’une ar­chi­tec­ture d’edge computing, comparée à un en­vi­ron­ne­ment Cloud tra­di­tion­nel.

  • Trai­te­ment des données en temps réel : dans les ar­chi­tec­tures d’edge computing, les unités de calcul sont rap­pro­chées au mieux des sources de données, fa­vo­ri­sant une com­mu­ni­ca­tion en temps réel. On évite ainsi le problème récurrent de latence rencontré avec les solutions de Cloud plus clas­siques.
  • Débit utile réduit : l’edge computing pri­vi­lé­gie un trai­te­ment des données en local au niveau de pas­se­relles edge. Seules les données qui ne peuvent pas être traitées lo­ca­le­ment, ou qui doivent être mises en lignes, sont té­lé­char­gées dans le Cloud.
  • La sécurité des données : avec une solution d’edge computing, la majeure partie des données reste dans le réseau local. Dans une telle con­fi­gu­ra­tion, les en­tre­prises auront plus de facilité à se conformer aux exigences de con­for­mité.

Les in­con­vé­nients de l’edge computing

Malgré ses nombreux avantages, l’edge computing présente également des in­con­vé­nients qui doivent être pris en compte :

  • Des struc­tures de réseau plus complexes : un système de ré­par­ti­tion est bien plus compliqué qu’une ar­chi­tec­ture Cloud cen­tra­li­sée. Un en­vi­ron­ne­ment edge computing est un ensemble hé­té­ro­gène de plusieurs com­po­sants de réseau, venant en partie de divers fa­bri­cants, et qui com­mu­ni­quent les uns avec les autres grâce à un grand nombre d’in­ter­faces.
  • Les frais d’ac­qui­si­tion pour du matériel edge : les ar­chi­tec­tures de Cloud se dis­tin­guent avant tout par le fait qu’il y a beaucoup moins d’équi­pe­ment matériel à installer lo­ca­le­ment.
  • Un niveau de main­te­nance plus élevé : un système dé­cen­tra­lisé, composé de plusieurs nœuds de calcul, nécessite plus d’entretien et d’ad­mi­nis­tra­tion qu’un centre de données.
Aller au menu principal