On associe souvent le HPC (High Performance Computing) aux secteurs de la défense, de la sécurité ou de la recherche académique. Il est vrai que pendant longtemps ces infrastructures servaient à définir la simulation nucléaire, à trouver un hypothétique boson ou à analyser des repliements de protéines. J’en passe et des meilleures !
Il y a une ou deux décennies, les infrastructures nécessaires s’étendaient sur une surface grande comme un terrain de basket. Depuis, les progrès de la loi de Moore ont fait que la même puissance de calcul tient dans un espace beaucoup plus restreint.
Si ces vastes environnements existent encore, ils ne sont plus ceux qui tirent le marché du HPC. Aujourd’hui, ce sont les applications dans les entreprises qui sont les principaux clients des fournisseurs d’infrastructure. En cela, le HPC devient la norme dans les infrastructures d’entreprises. « Les grandes tendances sociétales vont interagir et orienter les développements technologiques y compris le HPC. Ce n’est plus la défense et la sécurité qui tirent le marché mais l’industrie et la société et donc les individus et les citoyens », explique Daniel Verwaerde, président et co-fondateur de Teratec. L’ancien HPC départemental tient désormais le haut du pavé.
Plus d’impact que l’IA
Une étude réalisée par CensusWide pour le compte de Suse, éditeur d’une infrastructure logicielle qui s’appuie sur Linux, et rendu publique lors du récent Teratec, indique que 93 % des 250 DSI interrogés lors de l’enquête pensent que le HPC est une technologie majeure pour innover. Elle aurait même plus d’impact que l’Intelligence artificielle dans le domaine. À 80 %, les mêmes DSI pensent que dans les cinq ans ils seront distancés par la concurrence s’ils n’y ont pas recours, 41 % l’utilisent déjà et le restant indique à 51 % avoir des plans dans les 6 mois à 2 ans. Seuls 8 % attendent sagement que le train passe ! Tous les secteurs d’activité sont touchés par le phénomène.
Cette tendance est soutenue par différentes forces qui conjointement rendent nécessaire le HPC dans les entreprises. La première est évidemment l’augmentation du volume des données dans les entreprises. IDC estime que chaque personne sur terre générera 1,7 mégabytes de données par seconde d’ici 2020. Ceci représente le poids d’un fichier MP3 d’une chanson d’environ 2 minutes. Le même cabinet indique qu’un serveur sur quatre servira à faire du HPC au même horizon. Selon le McKinsey Global Institute, le volume mondial de données double tous les trois ans. IBM indique que 90 % des données mondiales ont été créées au cours des deux dernières années. Chaque jour, 2,5 quintillions de bytes de données sont générés. Devant ce déluge, les entreprises doivent s’adapter pour suivre le rythme et se convertissent à ce qui auparavant était cantonné à certains secteurs comme la Défense.
Avec cette puissance de calcul phénoménale, les entreprises ont enfin le moyen de mettre en œuvre de véritables outils analytiques. Nous ne reviendrons pas sur ce sujet que nous avons déjà maintes fois analysé. Là ce sont toutes les lignes de métier des entreprises qui ont des plans pour obtenir des informations pertinentes sur le client, les employés. Cela se traduit par une envolée des offres et des projets autour de l’apprentissage machine ou profond et l’Intelligence artificielle. RPA, reconnaissance vocale ou faciale, chatbots, analyses prédictives sont aujourd’hui choses communes dans les entreprises et apportent des gains de productivité par une meilleure connaissance ou par de l’automatisation sur des tâches récurrentes sans véritable valeur ajoutée.
L’Internet des Objets est un autre axe pour la diffusion du HPC dans les entreprises. Il sera bientôt créé plus de données par des capteurs ou des objets connectés que par des humains sur Internet. Cela va demander des puissances de calcul à la fois en bord de réseau (Edge) mai aussi de vastes infrastructures de calcul pour analyser toutes ces données afin de modéliser les comportements des objets et automatiser leur fonctionnement.
L’industrie IT change aussi
Il est intéressant de constater que l’industrie IT évolue dans le même sens. La plupart des noms associés auparavant au HPC se convertissent à des offres pour l’entreprise. DDN, Ansys, Nvidia, Panasas réalignent leurs offres pour satisfaire ce nouveau public avide de simulations, d’analyses pour accélérer la sortie de nouveaux produits ou services à même d’étayer leur développement.
D’un autre côté les grands de l’IT sortent les carnets de chèques pour lutter contre cette concurrence. HPE rachète Cray, Nvidia reprend Mellanox pour obtenir la connectivité nécessaire pour les environnements de ce nouveau HPC à l’échelle de l’entreprise. Dans ce panier de crabes, comme d’habitude, ce sont les petits qui sortent de la route. Les difficultés de Transtec et d’Alinéos, deux petits faiseurs dans le HPC en sont le reflet. Cette concurrence accrue a fait fléchir les marges bénéficiaires dans ce domaine très spécifique. Le volume aujourd’hui l’emporte sur la spécialisation. Ce sont donc les grands de l’industrie, IBM, HPE, Dell qui tirent les marrons du feu dans cette nouvelle donne.
Bon pour l’industrie en général
Comme l’indiquait Bruno Le Maire, ministre de l’Économie, lors de l’inauguration d’un centre de données d’Equinix il y a quelques mois, la France ne peut se laisser distancer dans cette course à la puissance de calcul à défaut de ne devenir qu’un « vassal » d’un autre pays ayant cette puissance de calcul. Si l’affaire est donc politique, elle est aussi favorable à notre industrie qui recrée ainsi de la productivité face à ses concurrents. « Le déclin est enrayé, depuis deux ans on crée plus de sites que l’on n’en détruit avec 250 000 emplois bruts par an et un net après destruction d’emplois qui est positif », a indiqué de son côté Philippe Varin, président de France Industrie. Il ajoute que « le calcul haute performance est un élément de différenciation, il n’y a pas d’industrie forte qui ne soit numérisée. » ❍