webleads-tracker

6 min

Le Edge Computing, plus que jamais une technologie collaborative

À l’occasion de notre SCC digital week, nous recevions Vincent Barbelin, CTO, CTO Ambassador chez Dell Technologies et Sébastien Gas, Directeur Connected Workspace & Innovation chez SCC. Tous deux ont apporté leur éclairage sur une technologie qui emporte l’adhésion des métiers : le edge computing. En faire le tour est un petit challenge en soi, d’autant plus en 20 minutes. Aussi, pour contenter les esprits les plus curieux, Vincent Barbelin revient avec acuité sur les implications du edge computing dans et pour l’entreprise, les phénomènes de bord à éviter, la réflexion essentielle qui précède sa mise en œuvre et surtout, l’organisation qui la sous-tend. Le edge computing est l’affaire de tous dans l’entreprise et ne saurait se satisfaire d’initiative isolée sans coordination et collaboration.

 

SCC : Vincent, les technologies de edge computing, comme toutes technologies puissantes, peuvent laisser perplexes les entrepreneurs. Avant d’entrer dans le détail de ses conditions de mise en œuvre, revenons quelques instants sur certaines de ses applications les plus adoptées.

Vincent Barbelin : Le edge computing concerne de nombreux cas de figure, smart cities, parkings, buildings, digital campus, voitures connectées ou encore factory 4.0. Au titre de l’usine connectée par exemple, il s’agit de développer des modèles de jumeaux numériques ou « Digital Twins ». Ce clone numérique, d’un bâtiment, d’une chaîne de production, de produits finis, bref d’un environnement physique, permet, grâce à l’IA, d’opérer toutes les simulations imaginables, impossibles à réaliser dans le monde réel, car particulièrement coûteuses ou dangereuses. On songe par exemple à l’arrêt complet de production, dont la connaissance des effets de bord, sur les clients, les produits et leur qualité, la supply chain, le support, les équipes commerciales est précieuse !

Sur un bulldozer modélisé, il est possible de simuler la rupture d’une pièce et d’évaluer les impacts sur la sécurité ou le temps de réaction des équipes de maintenance.

Généralement, on couple ces simulations internes avec du yield management, mieux connu en optimisation de l’offre et de la demande. Autrement dit, il s’agit d’appliquer aux simulations des facteurs externes comme les conditions météorologiques ou même sociétales. Dans le monde agricole, des prévisions météorologiques précises, couplées aux remontées du terrain comme l’humidité des sols, les conditions de vent, la température, permettent non seulement d’optimiser l’irrigation, la dispensation de fertilisants mais également d’améliorer la planification des opérations de maintenances préventives des engins, et contribuent très largement à de meilleures prévisions budgétaires. On retrouve la même démarche en production, pour adapter les opérations au plus près des externalités.

 

SCC : Pour affiner ce jumeau numérique, tout commence donc par la remontée du terrain de l’information.

Vincent Barbelin : Oui, l’enjeu du edge computing est de traiter les données au plus près des capteurs et de faire remonter l’information dans les meilleures conditions en assurant sa circulation, je dirais même son mouvement. IDC indique qu’en 2022, 50 % de la donnée mondiale d’entreprise sera créée à l’extérieur du système d’information mais aussi à l’extérieur du Cloud. De quoi s’agit-il ? Des capteurs et de l’IoT. En 2017, un Boeing 747 embarquait 10 000 capteurs et générait 15 Go de données pour un seul vol. Demain, un véhicule autonome produira 1 Go de données par seconde.

Selon la valeur, l’intérêt de la donnée, immédiat ou à plus long terme, cette donnée circule. C’est ce que l’on appelle la « data gravity ». Que fait cette donnée ? Elle transite du capteur au edge, du edge au private, du private au Cloud et retourne parfois vers le edge. A chaque étape, la donnée est traitée par des modèles mathématiques distribués. Le jumeau numérique intervient au niveau du Cloud par exemple. Mais si l’on prend l’exemple des actionneurs intelligents, c’est bien vers le edge que l’information une fois traitée revient.

 

SCC : À quelles contraintes, autres que fonctionnelles, doit-on penser pour permettre cette circulation ?

Vincent Barbelin : On ne peut pas stocker toute l’information dans le edge. Il est généralement éloigné des datacenters et de ce fait, devient plus délicat à manager et à sécuriser, et peut tout simplement être situé dans des environnements hostiles ou contraints par la place et le poids. Mais quand l’information circule, et d’autant plus avec la croissance de ses volumes, il peut se créer un phénomène particulier, que l’on nomme data zone. C’est une bulle de données, qui se forme à un endroit ou un autre de la chaîne de captation, et qui ne transite plus.

Plusieurs raisons peuvent expliquer le phénomène : soit la fréquence de relève de la donnée est trop élevée, soit certains compteurs sont redondants pour des raisons de sécurité, soit le réseau est sous-dimensionné. C’est tout l’intérêt d’associer au plus tôt les équipes IT dans un projet edge computing, quel que soit le besoin.

 

SCC : Est-ce un point de friction ?

Vincent Barbelin : Non, mais oublier l’IT est un obstacle à l’industrialisation d’un modèle. Il faut mesurer les évolutions des dernières années. Les métiers ont pris l’habitude de gérer leurs datas. C’est pourquoi aujourd’hui, la plupart des projets de edge computing émanent directement d’eux. Ils ont une idée claire de ce qu’ils veulent faire, lancent un maquettage mais travaillent isolément. Or le Gartner alerte maintenant les entreprises sur cette problématique : le risque de voir un projet edge échouer au passage à la mise en production est de l’ordre de 50 % compte tenu de cette absence de coordination.

De nombreuses questions peuvent trouver réponse dans une réflexion collective et des écueils comme l’effet de data zone, évités. S’interroger sur la précision attendue d’une remontée d’informations et sur la fréquence souhaitée, tout en maintenant la viabilité économique du projet, fait partie du processus. Il est important également de travailler avec les opérateurs réseaux, qui sont en train de remodeler le backhaul afin d’absorber la 5g mais aussi le maillage des micro-datacenters par lesquels la donnée IoT transite.

 

SCC : En la matière, que peut apporter le SDWan ?

Vincent Barbelin : Souvenons-nous, l’enjeu du edge computing est de favoriser le mouvement de la donnée. Mais en fonction, une donnée peut avoir tout intérêt à être envoyée directement vers le Cloud. Le SDWan permet de l’acheminer quoiqu’il arrive, à travers des solutions Direct To Cloud. Par ailleurs, et plus largement, le SDWan correspond au besoin de célérité du edge computing, dont le rythme de changement est soutenu et permanent. C’est aussi une reprise en main par l’IT des réseaux intersites. C’est enfin une réponse adaptée aux environnements d’une grande variété. Il est, vous en conviendrez, plus simple de disposer d’un edge virtualisé sur une antenne 5g que de déployer la fibre optique dans les champs d’un agriculteur.

 

SCC : Schématiquement et en fonction de la « data gravity », à quels types de calculs peut-on procéder en fonction de l’état et de la circulation d’une donnée venue d’un capteur ?

Vincent Barbelin : La contrainte du edge est sa capacité de stockage. Parce qu’on y trouve de petits volumes de données non labellisées, on n’y appliquera nécessairement que des modèles de datascience simple. Tout dépend cependant de la taille de l’organisation. Il arrive que l’on puisse fusionner le edge et le private et disposer alors d’une architecture offrant une puissance de calcul intéressante.

En revanche, sur de gros modèles de calcul comme à bord d’une voiture ou d’un avion, c’est au private (ou mini-datacenter) qu’il appartient de concentrer les importants volumes de données non structurées collectées. Les serveurs sont alors calibrés pour commencer à faire de l’intelligence artificielle, essentiellement du machine learning.

Enfin, dans le Cloud, nous disposons de l’ensemble des données issues des edges et des privates, mais aussi des données historiques issues des systèmes legacy. Avec les capacités de puissance de calcul du Cloud, l’entreprise peut alors aller plus loin dans le machine learning. Elle peut, éventuellement, s’essayer au deep learning dans ses premières approches ou appliquer pourquoi pas de la blockchain, par exemple pour tracer la revente de l’énergie produite par un bâtiment intelligent. L’objectif de tout cela, évidemment, est de valoriser ce patrimoine à travers du développement agile d’applications et de procéder à la création de jumeaux numériques pour de futures simulations.

 

SCC : Circulation de la donnée, maillage, collaboration, un projet de edge computing structure l’entreprise sur le chemin 4.0. En résumé, peut-on rappeler les points d’attention ?

Vincent Barbelin : Avec de tels volumes de datas, l’entreprise aura besoin d’experts infrastructure pour réussir l’acheminement de la donnée. Mais il faudra aussi dès le départ impliquer de nombreux services : l’IT et les métiers bien sûr ainsi que le juridique. La question de la responsabilité de la donnée se pose en d’autres termes avec le edge computing, valorisant d’autant le rôle du CDO. N’oublions pas non plus les partenaires technologiques.

Par ailleurs, de nombreux blueprint existent déjà, quels que soient les secteurs. Vidéo intelligente, transmission de fluides, pipelines, extraction minière… Il ne faut pas hésiter à s’appuyer sur l’expérience acquise. Elle a permis notamment de mettre au point en co-développement des ready architectures en fonction des usecases et de la taille de l’organisation concernée.

Enfin, sachons rester data-centric. Sachons mettre en valeur la donnée disponible et définir ce que l’on attend d’elle. Une fois les attentes alignées, il sera alors temps d’enrichir le patrimoine existant et d’améliorer le modèle avec des données émanant du edge computing.

Visionner l’atelier

NOUS CONTACTER