Grâce à son nouveau modèle d’architecture réseau, qui transcende les limites du cloud, l’edge computing oblige les entreprises à revoir leurs approches en matière d’infrastructures informatiques. Mais l’edge computing est-il simplement un nouveau concept à la mode ? Ou représente-t-il un changement fondamental pour chacune des industries s’appuyant actuellement sur le cloud computing ?

L’edge computing

L’edge computing est un terme actuellement omniprésent dans l’industrie (à l’image de « l’Internet des objets ») qui fait référence au traitement des données au plus près du point où elles sont créées : leur source.

Le cloud computing évolue constamment sous la pression des entreprises et des particuliers, qui accèdent désormais au quotidien à des services centralisés, qu’il s’agisse de plateformes telles que Dropbox pour partager des fichiers, ou de services de messagerie tels que Gmail. Même nos appareils et plateformes de divertissement (Netflix, par exemple) s’appuient sur le cloud, et la grande majorité de cette puissance de calcul est fournie par un nombre restreint de fournisseurs de cloud public de premier plan.

Ce big four est constitué d’Amazon (Amazon Web Services, ou AWS), Microsoft (Azure), IBM et Google. AWS peut d’ailleurs se targuer d’une part de marché de plus de 34 %. La disponibilité accrue de la 5G permettra également aux consommateurs de profiter d’un accès plus rapide et stable à leurs données et applications hébergées dans le cloud, sans avoir à utiliser une connexion Wi-Fi. Le problème avec le cloud actuellement est qu’il reste peu de marge de croissance, et que l’ensemble des opportunités disponibles se trouvent en périphérie de réseau (plus près de la source des données).

Selon Marco Argenti, vice-président de la division IoT chez Amazon Web Services, l’intérêt de l’edge computing réside dans trois « lois ». Bien qu’il ne s’agisse pas concrètement de lois, elles fournissent un guide basique afin de comprendre ce qu’une bonne solution d’edge computing peut apporter à une entreprise. Voyons quelles sont ces lois ci-dessous.

La physique – Lorsque l’on évolue dans des secteurs nécessitant que des données soient transmises en une fraction de seconde mais que l’on se trouve physiquement éloigné d’une plateforme, il faut se rapprocher de l’action afin de profiter d’une latence plus faible. C’est le cas, par exemple, pour les fournisseurs de services dans des secteurs tels que la gestion des travaux de construction sur les chantiers, les services de secours d’urgence (ambulanciers) et la gestion logistique à distance.

L’économie – Actuellement, il n’est probablement pas rentable de transférer d’importantes quantités de données de l’edge au cloud, et mieux vaut encore les prétraiter en local. Mais bientôt, avec l’avènement d’une connectivité étendue à la 5G, cela pourrait bien ne plus être le cas.

La région – Vouloir conserver ses données en local et les filtrer avant qu’elles ne soient renvoyées dans le cloud peut se justifier. En effet, une entreprise peut être soumise à des exigences en matière de conformité, à l’image des réglementations de l’industrie financière, dans laquelle certaines données doivent rester en local — un terme potentiellement subjectif en soi.

Les avantages

Le principal avantage de cette proximité est la rapidité supplémentaire offerte par l’edge computing, dont le principe est de traiter les données dans des data centers plus près de leur source. Résultat : moins de latence grâce à une réduction des distances à parcourir. Après tout, les données sont limitées par la vitesse de la lumière. En outre, le volume de données généré au quotidien en 2020 étant estimé à 44 zettaoctets, moins elles auront de trajet à effectuer, plus les résultats seront intéressants pour l’utilisateur final. Tout ceci est particulièrement bénéfique pour les grandes organisations, qui traitent d’importantes quantités de données complexes au quotidien.

Outre ses bénéfices évidents sur le plan de la rapidité, l’edge computing offre également des avantages en matière de sécurité. Cette approche distribuant la puissance de calcul sur un ensemble d’équipements et data centers, il devient alors bien plus difficile de se retrouver avec un réseau hors de fonctionnement. De par cette caractéristique intrinsèque, l’architecture de l’edge computing facilite la mise en œuvre de protocoles de sécurité capables d’isoler les parties compromises, sans avoir à mettre hors service l’intégralité de l’infrastructure.

Les données étant d’abord transmises depuis une multitude de sources, puis combinées avant d’être traitées, on pourrait craindre un décalage ; heureusement, l’edge computing veille à ce qu’il n’y ait aucune faille au sein du processus de traitement des informations en temps réel.

Outre ces avantages sur le plan de la sécurité, cette technologie offre également plus de fiabilité en diminuant la probabilité que des problèmes se manifestant à des emplacements distants du réseau n’affectent les données situées plus près de leur source. Même en cas de panne d’un data center local, la plupart des appareils IoT peuvent fonctionner indépendamment, leurs données pouvant être réacheminées afin de garantir que les utilisateurs finaux continuent d’avoir accès à leurs informations.

L’edge computing partage également l’évolutivité du cloud computing traditionnel, mais sans une grande partie de ses écueils, et avec une polyvalence largement supérieure — grâce notamment à la possibilité d’offrir aux fournisseurs de contenu un accès à des flux fiables et continus.

L’edge computing est un service constamment actif, constamment connecté, et qui collecte des données en permanence. Les informations non structurées collectées par ces réseaux peuvent être structurées en local, ou renvoyées vers le cœur du réseau, où elles sont alors disséquées par des technologies d’apprentissage automatique afin d’identifier des tendances au sein de points de données.

À qui s’adresse-t-il ?

Dans certains scénarios (en particulier dans les situations où les équipements IoT complexes sont essentiellement utilisés depuis des sites distants), il n’y a tout simplement pas assez de bande passante pour envoyer les énormes volumes de données nécessaires dans un délai raisonnable à l’aide de services de cloud public.

L’edge computing peut également s’avérer grandement bénéfique pour le secteur de la fabrication industrielle en augmentant la productivité des chaînes de montage, et en réduisant les frais de gestion d’objets communicants les uns avec les autres. Cependant, c’est dans le secteur de la santé, où de vastes quantités de données urgentes sont traitées au quotidien, que l’edge computing pourrait avoir un impact significatif. Selon Richard Corbridge, directeur des systèmes d’information au Leeds Teaching Hospitals NHS Trust, cette technologie pourrait apporter une réponse à un grand nombre de problématiques d’e-santé :

« Nous avons un pilote basic d’edge computing en cours de déploiement ; dans le service de soins rénaux de notre hôpital, nous collectons des données à partir de dispositifs connectés qui supervisent les patients, puis nous les transférons directement dans les dossiers médicaux de l’établissement. Le traitement des informations en périphérie permet de créer des scores d’alertes précoces afin d’analyser les soins prodigués aux patients, de les comparer aux informations collectées durant leurs séjours et, lorsque nécessaires, des alertes ou des tâches sont créées. »

Qui s’en sert aujourd’hui ?

Aux États-Unis, 21 % des entreprises utilisent déjà cette technologie, et bien que le Royaume-Uni semble à la traîne par rapport à son cousin transatlantique avec seulement 9 % d’adeptes, 32 % des organisations devraient s’appuyer sur cette approche dans les cinq prochaines années.

En tant que leaders des technologies de pointe, Google a été l’une des premières entreprises à essayer des applications et pratiques liées à l’edge. Ses Progressive Web Apps, par exemple, disposent d’une fonctionnalité « priorité au hors-ligne » qui permet de travailler en local avant d’effectuer une synchronisation avec le cloud.

De son côté, Google Clips conserve les données en local par défaut. Google fait également partie des nombreuses sociétés de premier plan dans le monde de la tech à investir lourdement dans l’avenir des véhicules autonomes — qui représentent une des concrétisations logiques du potentiel de l’edge computing. En effet, les voitures autonomes peuvent utiliser jusqu’à 4 000Go de données en seulement une heure de conduite, ce qui nécessite un maximum de bande passante !

Aux États-Unis, la nouvelle offre IoT « Curiosity » lancée par l’opérateur de télécommunication Sprint s’appuie sur des services d’edge computing fournis par le spécialiste Packet. Son directeur technique, Ihab Tarazi, estime que le fait que les opérateurs de communication sans fil tirent parti de cette technologie n’est que le début :

« Certaines grandes entreprises ont beaucoup migré vers le cloud, mais cherchent à déployer certains éléments en périphérie de réseau pour améliorer les performances de leurs applications et autres technologies de paiement sur mobile. Le changement est déjà en marche. »

Sprint a également profité du CES 2019 pour annoncer le développement de sa propre « ville intelligente », qui aurait tout simplement été impossible sans la rapidité et la polyvalence de l’edge computing.

Les risques

Tout progrès technologique majeur implique des sacrifices sur lesquels il convient de s’interroger. Pour les consommateurs, le principal désavantage est que les entreprises utilisant l’edge computing pour leurs environnements IoT auront par défaut davantage de contrôle sur leurs expériences de vie, et ce à leurs dépens. Cependant, beaucoup d’utilisateurs seront probablement quelque peu soulagés de ne plus avoir à tenir le volant de leur voiture.

Pour les entreprises, les inconvénients et les risques sont rares. Il leur faudra davantage d’équipements installés en local pour tirer pleinement parti des capacités de l’IoT, et cette augmentation du nombre d’appareils connectés représente des opportunités de cyberattaques supplémentaires. Enfin, étant donné que seule une partie des données est traitée et analysée (les informations brutes et incomplètes étant éliminées), c’est à elles qu’il reviendra de décider du niveau de perte d’information acceptable.

Par où commencer ?

Les fournisseurs de services d’hébergement en colocation peuvent être le meilleur moyen de combler les lacunes de l’edge computing appliqué à l’IoT, tout en offrant une solution rentable pour assurer la gestion, le stockage et l’organisation des big data. La colocation en data center est l’option la plus efficace et flexible pour analyser les gigantesques volumes de données générées par les capteurs connectés au sein des usines, chaînes d’approvisionnement, réseaux électriques, produits distribués et autres « villes intelligentes ».

En associant à cela des partenariats clés au sein des data centers — avec des éditeurs de logiciels, des fournisseurs de services d’analyses de marché/de données, ainsi qu’une vaste liste de fournisseurs de services réseau (NSP) et gérés (MSP) — la configuration d’un réseau de périphérie dans un data center de premier plan pourrait être considérée comme le meilleur scénario possible.

Les data centers de Telehouse en France offrent une connectivité à un large écosystème de fournisseurs de services réseau et mobiles. En outre, nos data centers étant situés dans le centre de Paris, ils sont idéalement placés pour les entreprises souhaitant mettre en place leur infrastructure de télécommunication en périphérie de réseau.

L’avenir

Avec la prolifération des objets connectés sur le marché (grâce au développement de l’IoT et de la 5G), les entreprises qui n’ont jusqu’ici qu’effleuré le potentiel de l’edge computing chercheront indubitablement à investir dans cette technologie et à tracer leur chemin vers l’avenir du cloud.

L’edge computing offre de nombreux avantages majeurs par rapport aux architectures réseau traditionnelles, et ne coûte pas nécessairement beaucoup plus cher. Selon les prévisions du cabinet Gartner, en 2022, plus de 50 % de l’analyse des données issues de l’IoT industriel s’effectuera en périphérie de réseau. Pourquoi ne pas prendre les devants dès maintenant ?

Dans les prochaines années, les entreprises de toutes tailles seront fortement contraintes d’adopter l’edge computing. Si votre organisation collecte tellement de données depuis la périphérie du cloud que vous en êtes enseveli, ou si vous êtes incapable d’apporter les résultats rapides et fiables attendus par vos utilisateurs, le temps est peut-être venu de vous intéresser aux avantages et à la façon de configurer votre infrastructure afin d’accueillir cette nouvelle technologie décentralisée et audacieuse.