Les environnements hyperconvergents (hci) prennent une place de plus en plus grande, mais connaissent certaines limites que les infrastructures composables essaient de corriger.
HPE Synergy, le serveur composable d'HPE.
Si les systèmes convergents, qui combinent seulement puissance de calcul et stockage, semblent stagner, si l’on en croit les chiffres du 2e trimestre fournis par les cabinets d’analystes comme IDC, le segment de l’hyperconvergence continue lui de connaître une forte croissance. En plus du calcul et du stockage, les baies hyperconvergentes ajoutent la supervision par la console d’administration qui gère les machines virtuelles installées sur la baie. Au 2e trimestre de cette année, il s’est vendu pour 1,5 milliard de dollars de ce type de systèmes, en croissance de 78 % d’une année sur l’autre. Cela représente désormais 46 % des systèmes convergents au sens large – convergents et hyperconvergents.
Tout comme pour le stockage objet, la plupart des grands fournisseurs de serveurs ou de stockage ont une gamme hyperconvergente. En tête VMware, de la galaxie Dell EMC, avec ses VXRack ou Rail. Selon les trimestres et les machines prises en compte, VMware est premier ou deuxième du secteur derrière Nutanix. Pure player de l’hyperconvergence, Nutanix s’appuie maintenant sur un modèle purement logiciel et certifie certaines machines ou configurations pour déployer sa solution. Dell est ainsi un partenaire de Nutanix et vend beaucoup d’appliances hyperconvergentes accueillant le logiciel de Nutanix. Cela semble étonnant que l’allié de VMware puisse vendre autre chose que son propre produit mais les demandes sont telles que Dell continue ce partenariat qui avait sa logique propre : pour les clients fortement virtualisés avec VMware, Vx Rack, pour les clients ayant fait le choix d’Hyper-v de Microsoft, Nutanix.
Les besoins en puissance de calcul et en stockage peuvent diverger
Avec son propre hyperviseur, Acropolis, Nutanix essaie de plus d’attirer des clients sous l’hyperviseur de VMware vers d’autres cieux. Bref, s’il n’y a pas de conflit entre les deux officiellement, la tension monte mais on fait « business as usual ». Nutanix a d’ailleurs développé d’autres partenariats avec Lenovo et IBM pour porter sa solution sur Power, le processeur d’IBM. Derrière ces deux leaders indiscutables, Simplivity, désormais dans le giron de HPE, entame une remontée. Étonnamment, ce système hyperconvergent, qui était plutôt destiné aux grandes PME lorsque l’entreprise était indépendante, devient un fer de lance de la consolidation et du renouvellement chez les clients des serveurs de chez HPE. Cisco, Datacore, HTBase, Huawei, Pivot 3, Scale Computing, Stratoscale sont les autres acteurs majeurs de ce marché.
Si le secteur se porte bien il connaît cependant un point critique. Lors de l’évolution du système, les besoins en puissance de calcul et en stockage peuvent diverger. Le simple ajout de nœud fait que l’utilisateur risque de se retrouver avec de la puissance de calcul inutile ou de la capacité de stockage excédentaire. Les offreurs de solutions hyperconvergentes ont tout d’abord essayé de contourner le problème en multipliant les configurations et les architectures de références. Industriellement parlant, cette solution semblait peu viable. Des constructeurs ont donc eu l’idée de décorréler cette évolution et de proposer ce que l’on appelle une architecture composable pour permettre au client d’utiliser la bonne puissance de calcul ou de rester au plus juste de ses besoins pour la capacité de stockage.
Le composable ou l’hyperconvergent décomposé
Le premier constructeur à avoir présenté cette idée a été HPE avec ses machines Synergy. Dans un rack hyperdense, la machine regroupe des serveurs x86 et du stockage SSD, le tout supervisé par le logiciel One View. One View Composer, qui réside sur un serveur dédié qui permet d’affecter « à la volée » telle unité de traitement avec telle application et le volume de stockage désiré pour répondre aux besoins spécifiques d’une application ou à la charge de travail qu’elle requiert. L’ensemble est complété par une infrastructure réseau qui gère à la fois le réseau entre les serveurs mais aussi vers le Cloud ou les autres éléments distants. Le « plus » : ce réseau peut être lui-même virtualisé, simplifiant la mise en œuvre du SDN (Software Defined Network). Cette fonction est apportée par Plexxi, une entreprise de supervision réseau récemment acquise par HPE. Des plug-ins dans Plexxi autorisent de plus des intégrations avec la plupart des environnements hyperconvergents du marché. Et la virtualisation du réseau permet d’améliorer le niveau de sécurité avec la mise en œuvre de la micro-segmentation sur les VLan. Fortement lié au logiciel, Synergy permet réellement de mettre en place une « Infrastructure As A Code » pour les développeurs. La configuration demande d’une à quelques lignes de codes. HPE annonçait 1 400 clients autour de sa solution en août dernier.
Plus récemment, NetApp a annoncé une solution d’hyperconvergence qui reprend peu ou prou les principes d’une infrastructure composable. Sa solution, du nom de HCI, reprend les environnements de VMware. Les clients peuvent ainsi moduler la solution en fonction de leur besoin : plus de calcul ou plus de stockage. Le pilotage de l’ensemble est assuré par les logiciels de Solidfire. À son tour, Dell s’est mis sur les rangs avec le PowerMax MX qui, lui aussi, combine calcul, stockage et réseau, offrant aux clients « une véritable désagrégation des architectures serveurs » et « une totale composabilité qui permet une vitesse comparable à celle du Cloud », a expliqué à CRN Brian Payne, responsable du marketing de la nouvelle offre.
Des performances équivalentes à des environnements « bare metal »
DriveScale est une entreprise récente créée en 2013 par Tom Lyon et Satya Nishtala, deux anciens cadres de Sun Microsystems et de Cisco. La jeune pousse propose une architecture software pour composer une infrastructure répondant aux besoins des tâches dans le Cloud par le biais du switch réseau. La solution de l’éditeur compose l’infrastructure hardware à la volée en combinant calcul et stockage nécessaire à la juste charge pour exécuter une application avec des performances équivalentes à des environnements « bare metal » et du stockage attaché directement (DAS, Direct Attached Storage) sans nécessiter de changement à l’application. De la même manière, l’environnement se redéploie en cas de changement pour s’adapter au plus juste.
La solution se compose d’un logiciel, DriveSCale Management System qui collecte les données, réalise la composition et la configuration des clusters, gère les contraintes et supervise le statut logique et physique des clusters. Les informations sont envoyées vers la console par des agents (placés sur des serveurs Linux pour l’instant) et qui peuvent être déployés automatiquement.
L’ensemble est centralisé au travers d’un portail en Cloud pour l’administration des différents sites tout en gérant les mises à jour, la revue des logs, la documentation… Tous les échanges se réalise par le switch réseau, appelé Adapter dans le vocabulaire de DriveScale, et les switchs « top of the rack » pour les éléments du cluster.
Le principal avantage de la solution est de combiner l’agilité du Cloud et les performances du « bare metal » avec une administration simplifiée par logiciel pour des adaptations et des déploiements réellement dynamiques et en temps réel. ❍
L'architecture de la solution de DriveScale.
Cet article est extrait du dossier Stockage paru dans L'Informaticien n°172.