Du simple microcontrôleur capable d’exécuter un algorithme d’IA jusqu’au conteneur maritime de 12 mètres, l’informatique se rapproche au plus près des sources de données. L’Edge Computing s’impose comme le chaînon manquant entre l’objet connecté et le Cloud hyperscale.
Légende illustration : Placé entre le Cloud et les objets connectés, les sources de données, le positionnement de l’Edge Computing est désormais bien connu. Cette architecture va néanmoins varier selon le niveau d’intelligence et la capacité de traitement que l’on va pouvoir injecter dans les objets connectés eux-mêmes.
Il est désormais acquis que l’Internet des objets (IoT) va devenir un marché colossal au cours des prochaines années. Les analystes ont multiplié les prédictions quant au nombre d’objets connectés que nous côtoierons dans notre environnement : 80 milliards d’objets pour IDC en 2025, 500 milliards d’ici à 2030, selon Cisco. Mais comme pour toute ruée vers l’or qui se respecte, les seuls qui feront fortune, ce seront les vendeurs de pelles. Une toute récente étude de chez Boston Consulting Group prévoit que le marché de l’Internet des objets atteindra 267 milliards de dollars dès 2020. Les fournisseurs cloud, AWS et Microsoft en tête, ont immédiatement saisi cette manne en proposant des plates-formes pouvant collecter, stocker et traiter les données qui seront générées par ces milliards d’objets connectés. Cette architecture centrée sur le Cloud public “ hyperscale ” s’est rapidement heurtée à la réalité : connecter autant d’objets directement aux applications de l’entreprise via un réseau cellulaire ou même des réseaux dédiés à l’IoT pose un certain nombre de contraintes. D’une part les RSSI voient d’un extrêmement mauvais œil des terminaux localisés dans la nature, donc potentiellement aux mains d’un attaquant, communiquer avec leurs serveurs. Ceux-ci ont sans doute encore en tête le hacking d’un casino de Las Vegas en 2017 via un aquarium dont la pompe était connectée via Internet… La technologie de Cartesiam est certainement ce qu’on fait de plus compact comme architecture Edge puisque, avec sa technologie NanoEdge, le Français parvient à exécuter l’inférence d’un modèle de Machine learning sur un simple microcontrôleur ! Autre écueil, celui des télécommunications. Une architecture centrée sur un Cloud distant implique des temps de latence peu compatible au besoin de temps réel des process industriels et connecter des centaines de milliers d’objets via un réseau cellulaire à un coût financier mais aussi technique sur lequel il est impossible de faire l’impasse : en pratique, les puces GPRS ou 3G ne sont utilisables que sur des objets raccordés à une source d’énergie et quant aux réseaux de type Sigfox ou LoRa, leur très faible débit utile les destine à des niches de marché ou à des applications où il est possible de traiter et agréger la donnée avant de l’envoyer en central.
Le besoin de puissance de calcul glisse de plus en plus vers le terrain
L’idée d’insérer de la capacité de traitement entre l’objet connecté et le SI est en train de s’imposer et les annonces relative à l’Edge Computing se sont multipliées ces derniers mois. Gartner estime qu’actuellement 10 % des données sont générées et traitées en dehors du datacenter. En 2022, cette proportion atteindra 50 %. Illustration de ce déplacement de la puissance de calcul du datacenter vers le terrain, l’exemple évoqué par Jean-Philippe Courtois, Executive Vice-President de Microsoft lors de la conférence Microsoft Envision à Paris, à la fin novembre 2019 « Starbucks connecte l’ensemble de ses machines à café. Il fallait s’appuyer jusqu’à alors sur des dizaines de milliers d’agents dans le monde pour intervenir sur ces machines, charger les nouvelles recettes avec des clés USB et dépanner ces machines. Celles-ci seront connectées sur Azure Edge pour faire de la maintenance prédictive et de la personnalisation par zone, par ville, par point de vente. » Olivia Burgess, Senior IoT Marketing Manager de Microsoft, a dévoilé la stratégie IoT de Starbucks lors de la conférence Build en juin 2019, avec des boîtiers communicants installés sur les machines à café afin de remonter des données vers le Cloud Microsoft Azure. Microsoft propose aux entreprises le module Azure Sphere, rebranding du module Guardian 100 d’Avnet et qui permet de disposer d’une puissance de calcul relativement importante (SoC ARM avec un cœur Cortex A7 à 500 MHz et deux cœurs Cortex M4F à 200 MHz). Cette puissance suffit à appliquer un premier niveau de traitement aux données collectées avant leur envoi vers le Cloud Azure. De son côté, Amazon Web Services pousse son architecture AWS Greengrass auprès des constructeurs de PC industriels notamment. Le champion du Cloud a mis en place des programmes de certification des matériels, notamment pour son architecture AWS Greengrass, mais aussi pour l’AWS Core et FreeRTOS pour les industriels qui chercheraient un OS en vue d’implémenter des fonctions Edge. AWS est allé un peu plus loin en annonçant l’an dernier le lancement des AWS Snowball. Ce qui ne semblait qu’une solution hardware de transfert de données s’est mué en véritable solution Edge, avec des boîtiers durcis hébergeant une puissance de 52 CPU virtuelles, 208 Go de mémoire, 42 To de stockage compatible S3 et 7,68 To de SSD NVMe. Largement de quoi positionner les instances standard AWS en local et donc monter un mini-Cloud AWS derrière le firewall de l’entreprise. L’ogre Amazon compte aller plus loin encore et proposer avec ses racks Outposts son propre design d’infrastructure pour installer un Cloud AWS natif ou VMware Cloud on AWS dans les locaux de l’entreprise. Avnet assure pour Microsoft la fabrication des modules Secure Edge avec une puce qui embarque le stack Microsoft sur Linux et qui permet un échange de données sécurisé avec le Cloud Azure.
L’IA pousse vers un accroissement de la puissance informatique
L’essor de l’Intelligence artificielle va sans nul doute renforcer ce besoin en puissance de traitement pour les données IoT. Beaucoup d’acteurs du marché ont dû prendre position depuis les annonces de Google lors de la Next 2018, conférence pendant laquelle Google avait dévoilé Edge TPU. Google construisait déjà des circuits ASIC dédiés au Machine Learning pour ses datacenters, les Cloud TPU, mais avec l’Edge TPU, l’Américain proposait alors une puce d’IA conçue spécifiquement pour être embarquée dans les objets connectés. Cette solution hardware était couplée à une infrastructure logicielle adaptée à des communications intégrant une couche Edge entre les capteurs et le Cloud Google. Certains comme Intel ou Nvidia proposent aujourd’hui des puces « light » ou même ultra-light dans le cas de Cartesiam capables de faire tourner des inférences de Machine Learning sur de simples microcontrôleurs à quelques centimes d’euros. De son côté, Intel dispose de trois gammes de puces pour exécuter des inférences de Machine Learning, depuis l’objet connecté jusqu’au datacenter, pour reprendre une image de Tristan Bouchoux, Vision Sales Manager EMEA chez Intel. « Pour exécuter l’IA au plus près des capteurs, nous avons les puces Movidius qui vont pouvoir être intégrées directement dans une caméra, par exemple. Néanmoins, le plus gros du marché de ces puces d’IA se situe aujourd’hui au niveau gateway. Il s’agit alors de processeurs traditionnels de type Atom/Core/Xeon avec éventuellement une carte d’accélération Movidius ou FPGA pour avoir plus de performance dans l’exécution des inférences. Enfin, on peut faire tourner des inférences dans le datacenter, ce sera alors essentiellement sur Xeon, FPGA ou sur Nervana, un Neural Network Processor dédié à cette tâche. » Les constructeurs de PC industriels commencent à afficher la compatibilité avec AWS Greengrass ou Azure IoT Edge sur leurs équipements..
L’hyperconvergé, le meilleur ami d’une infrastructure Edge
Face à cette montée du besoin de machines conçues pour l’Edge Computing, tous les constructeurs de serveurs ont désormais des gammes Edge à leur catalogue. En bon constructeur généraliste, Dell propose une gamme de PC industriels, les Dell Edge Gateway, mais l’Américain compte accélérer. En 2017, Michael Dell annonçait la création d’une division IoT dotée de 1 milliard de dollars de budget. Un an plus tard, le Texan annonçait un partenariat avec Microsoft sur les plates-formes IoT Edge. Nutanix pousse de son côté son architecture hyperconvergée sur le marché Edge. La flexibilité de l’approche hyperconvergée se prête plutôt bien à des sites distants, notamment par sa capacité à industrialiser l’administration des plates-formes et le déploiement de conteneurs applicatifs et provisionner/déprovisionner les ressources de calcul et de stockage à distance. La solution Nutanix a notamment été choisie par Compass Group pour déployer ses bornes automatiques à reconnaissance d’image dans ses restaurants, des systèmes Smart Checkout qui communiquent avec une appliance Nutanix installée dans chaque restaurant pour garantir une performance et donc une expérience client optimale. « C’est un cas d’usage très avancé et ils sont parvenus à réinventer l’expérience client grâce à l’IoT, une expérience qui n’était pas possible auparavant », a expliqué Satyam Vahani, vice-président pour l’IoT et l’IA chez Nutanix lors de Nutanix 2019 .NEXT. Pour susciter ce type de projets chez ses clients, le spécialiste de l’hyperconvergé a créé une plate-forme de développement rapide dédiée à l’IoT appelée Xi IoT Cloud Instance. « Il s’agit d’une part d’une instance dans le Cloud, mais toutes les applications écrites sur le PaaS Xi IoT peut s’exécuter indifféremment dans le Cloud ou sur n’importe quel appliance Edge. » De son côté, HPE a choisi de dédier sa conférence annuelle Discover 2019 au thème du Edge Computing. Lors de sa keynote, Antonio Neri, CEO d’HPE, soulignait que « l’approche Edge consiste à utiliser la technologie et les Data pour faire le lien entre le monde physique et le monde digital afin de personnaliser l’expérience client, automatiser le travail des employés, introduire le digital dans les salles de classe, et au final générer des résultats business pour votre marque. Nous pensons que cela n’est possible que de manière intégrée au Cloud et sécurisée. Le Edge doit fonctionner en harmonie avec le Cloud. » Lors de cet événement, le Californien a ainsi multiplié les annonces autour du Edge Computing. Aruba Central devient une solution de gestion des réseaux et des accès, mais assure aussi la sécurité des terminaux connectés en Edge. Dans le secteur industriel, HPE mise aussi sur son partenariat avec ABB et l’intégration entre les points d’accès Aruba et la technologie ABB Ability Smart Sensor pour proposer une solution de connectivité des objets connectés à la fois sécurisée et capable de monter en charge. HPE s’est en outre appuyé sur ABB, Microsoft et Rittal pour créer le Secure Edge Data Center for Microsoft Azure Stack, une appliance qui est en fait un micro-datacenter prêt à l’emploi. L’objectif est de déployer cette appliance qui va exécuter le stack Microsoft Azure sur des sites industriels ou des filiales qui ne disposent pas de datacenters et de lien internet performant. Avec le SEDC (Secure Edge Data Center), ABB, HPE et Rittal proposent aux industriels un micro datacenter conçu pour les usages Edge Computing. S’il existait déjà des micro-datacenters depuis quelques années déjà, selon les analystes l’essor du Edge Computing remet ses solutions au goût du jour. Selon le cabinet 451 Research, le marché des micro-datacenters modulaires devrait connaître un taux de croissance supérieur à 50 % pendant les trois prochaines années du fait des déploiements d’infrastructures 5G ainsi que la convergence entre OT et IT. HPE et Rittal proposent des micro-datacenters pour ce marché Edge, tout comme Schneider Electric/ APC, Legrand, Effirack qui proposent des enceintes de quelques U à installer dans un Open Space ou les locaux techniques. D’autres proposent de véritables conteneurs maritimes, des équipements pouvant être déployés en extérieur, sur un chantier ou le parking d’une usine. Schneider Electric ou encore les constructeurs de datacenters tels que le Français Marylin Vertiv (ex-Emerson Network Power) ou Modulo-C assemblent ainsi des conteneurs pouvant contenir plusieurs racks lorsque le besoin en stockage et traitement est important. De la puce de quelques millimètres de côté jusqu’au micro-datacenter en conteneur, l’Edge Computing sera partout et l’idée d’informatique pervasive ou ubiquitaire imaginée par les chercheurs dans les années 90 se matérialise aujourd’hui. Lors de Microsoft Ignite 2019, HPE a mis en avant son Edgeline 8000 Converged Edge System (EL8000), dernier avatar de la gamme Edgeline que son châssis durci destine à des déploiements sur le terrain. Cette machine peut accueillir Azure Stack HIC, ce qui va permettre de provisionner des ressources Azure sur cette infrastructure hyperconvergée en local. Le spécialiste des restaurants d’entreprise Compass Group appuie le déploiement de ses bornes à reconnaissance automatique des plats sur une infrastructure Edge consistant en une appliance Nutanix installée dans chaque restaurant pour centraliser les données générées par les différentes bornes installées dans l’établissement.