Véritable usine de production de l’économie numérique, le datacenter focalise les critiques des associations environnementales. Ces installations dont les plus grosses peuvent consommer jusqu’à une centaine de mégawatts sont-elles vraiment un gouffre énergétique ?
En 2015, le professeur Andrew Ellis, chercheur à l’Université d’Aston, prophétisait la fin d’Internet, écrasé sous le poids des volumes de données et l’explosion de la consommation énergétique des équipements réseau. D’après ses calculs, Internet consommait déjà 16% de la production électrique du Royaume-Uni et la consommation doublant chaque année, Internet allait rapidement faire s’effondrer le réseau électrique mondial, selon lui dès 2023 ! Si ce risque d’effondrement semble raisonnablement pouvoir être écarté, la question de la consommation énergétique d’Internet reste pleinement posée. Qualifiés de monstres avides d’énergie par Libération, de monstres informatiques énergivores par le Figaro, les grands datacenters ont focalisé l’attention des médias. Les qualifiant de gouffre pour la Planète, le Canard Enchaîné affirmait en novembre que les datacenters engloutissent 10 % de la production électrique mondiale, évoquant même des experts estimant cette part à 20%…
En cherchant à évaluer l’empreinte énergétique du numérique, l’association négaWatt
a replacé l’impact des datacenters par rapport aux infrastructures réseaux et surtout aux terminaux
qui représentent la plus grosse part de la consommation.
Qu’en est-il réellement ? Dans un rapport datant de février 2019, l’Ademe (Agence de l’environnement et de la maîtrise de l’énergie) évoque 13 % de la production électrique consommée par les datacenters à l’horizon 2030 contre 51% pour le numérique au sens large, incluant notamment les terminaux. Cette estimation alarmiste issue des calculs d’Anders Andrae et Tomas Edler, chercheurs chez Huawei en Suède, a été nettement revue à la baisse depuis. The Shift Project, un think thank français en faveur d’une économie libérée de la contrainte carbone, évoque 25% de la production électrique consommée par le numérique d’ici à 2025, dont plus que 5% par les datacenters. Le calcul n’est pas simple, car les données sont très parcellaires.
La simulation CFD permet aux concepteurs d’optimiser la circulation d’air
dans le datacenter ici avec le logiciel 6SigmaRoom de Future Facilities. L’objectif
est de ne pas laisser les flux d’air froid et d’air chaud se mélanger
afin de maximiser le refroidissement des serveurs.
Le Datacenter, partie émergée de l’écosystème du numérique
Si le datacenter est gros, bruyant et ultra-visible, il n’est que la partie émergée de la dépense énergétique de l’IT mondiale. En 2015, NégaWatt, une association française que l’on peut difficilement soupçonner d’être à la solde des bâtisseurs de datacenters, a calculé que si le numérique représentait en France une consommation de 56,5 TWh, la part des datacenters et des serveurs d’entreprise était de l’ordre de 10 TWh. C’est bien moins que les terminaux domestiques et des terminaux professionnels qui représentent respectivement 22 TWh et 21 TWh.
Édouard Toulouse, consultant expert sur l’efficacité énergétique et l’écoconception des produits et auteur de ce rapport souligne que « La facture énergétique du numérique se répartit sur trois postes. D’une part les datacenters, où sont stockées toutes les données ; les réseaux de télécommunication qu’ils soient fixes ou mobiles ; enfin les terminaux, depuis la TV connectée jusqu’au PC en passant par nos smartphones, nos tablettes. Pour l’instant, ce sont les terminaux qui consomment le plus, mais on constate depuis quelques années une baisse du nombre des ordinateurs, une stagnation du nombre de tablettes, les usages se portant de plus en plus sur les smartphones. C’est un effet de substitution bénéfique. Si on peut espérer une baisse du côté des terminaux, les volets cloud et réseau sont promis à une forte croissance à l’avenir et c’est ce qui inquiète le plus aujourd’hui. »
L’essor des géants du Cloud et de leurs besoins en surface donne raison à l’expert et du côté des infrastructures réseau, une récente étude du cabinet Tactis laisse entendre que pour couvrir la France en 5G, les opérateurs vont devoir multiplier l’installation de nouvelles antennes, 30% de sites supplémentaires qui viendront s’ajouter aux antennes 2G, 3G et 4G existantes.
Les opérateurs de datacenters dans une course à l’amélioration
Si le datacenter est montré du doigt, les professionnels du secteur soulignent les gains réalisés ces dernières années. « C’est l’intérêt naturel et économique des opérateurs de datacenters que d’être éco-efficients : en termes de communication et en termes économique », souligne Tristan Labaume, président de l’Alliance Green IT. De facto, on a commencé à voir les géants de l’IT communiquer sur le thème de l’éco responsabilité à l’image de Google qui, en 2017, annonçait être à 100% d’énergie renouvelable. Un an plus tard, Facebook promettait d’atteindre les 100% d’énergie renouvelable en 2020.
Ces entreprises sont en effet sous le feu d’une campagne de Name and Shame de la part de Greenpeace depuis 2012, l’association Greenpeace “allumant” ainsi les géants de l’IT sur l’origine de leur énergie, essentiellement produite à base de charbon aux États-Unis. Google faisait alors déjà figure de leader dans l’emploi des énergies renouvelables, mais consommait encore 28,7 % d’énergie provenant du charbon, tandis que Facebook et Microsoft frôlaient la barre des 40%. Néanmoins comme le souligne un expert du milieu, acheter de l’électricité verte, c’est le plus facile et optimiser la consommation électrique des datacenters est beaucoup plus complexe. En la matière, s’il existe de nombreux indicateurs pour quantifier l’efficacité d’un datacenter, c’est le PUE (Power Usage Effectiveness) qui fait office de juge de paix. Il s’agit du rapport de l’énergie totale consommée par le datacenter divisé par l’énergie réellement consommée par les serveurs. Dans un datacenter dont le PUE est supérieur à 2, les installations consomment alors autant voire plus que les serveurs eux-mêmes.
Le datacenter Marilyn, de Celeste, illustre la technologie du freecooling
avec un bâtiment qui permet à l’air de refroidissement chauffé
par les serveurs de s’échapper par le haut.
« Depuis 3 à 5 ans, des progrès substantiels ont été réalisés en matière de PUE, poursuit Tristan Labaume, notamment sur les nouveaux datacenters dont la conception a été pensée pour améliorer le PUE », mais il souligne toutefois les limites de cet indicateur. Certains acteurs du Cloud avancent par exemple un PUE théorique de record de “1,1”, mais il ne s’agit souvent que d’une valeur théorique qui suppose que tous les racks sont complets. La réalité est que le PUE réel d’un excellent datacenter est plus proche de 1,3 ou 1,4.
L’optimisation énergétique du datacenter est devenue une science
Les opérateurs de datacenters travaillent depuis plusieurs années sur l’amélioration des performances de leurs installations et ceux-ci ont creusé l’écart par rapport aux petites salles informatiques des entreprises. Fabrice Coquio, directeur général d’Interxion en France, opérateur d’une cinquantaine de datacenters en Europe, affirme que « Les salles informatiques des entreprises représentent en cumul 50 % des espaces d’hébergement disponibles en France. Leur efficience n’a rien à voir avec les grandes installations construites par des experts et qui gèrent des installations de plusieurs milliers de mètres carrés. APL, un expert du secteur a réalisé l’audit de 350 datacenters en France et seuls 19% affichent un PUE inférieur à 1,67. Les écarts sont très importants et on ne peut mettre tous les datacenters dans le même panier. À titre de comparaison, tous les datacenters d’Interxion en France ont un PUE inférieur à 1,5 et certains d’entre eux sont à 1,36 et même 1,35. » Pour obtenir de tels résultats, les opérateurs ont construit des installations de plus en plus grandes, de plusieurs milliers de mètres carrés, afin de changer d’échelle et d’accroître l’efficience des installations électriques et de refroidissement. Ces grands projets ont ainsi bénéficié de l’amélioration des divers équipements nécessaires au fonctionnement de l’installation. C’est notamment le cas des onduleurs dont le rendement de certains modèles est passé de 80 % – avec 20% d’électricité perdue ! – à près de 98% ou même 99% pour les modèles les plus performants et surtout les plus gros. Le courant est distribué à 20000 volts via des gaines à barre à l’intérieur du datacenter afin de limiter les pertes électriques, le courant n’étant rabaissé qu’au plus près des serveurs. Autre point-clé dans l’efficience énergétique du datacenter, le refroidissement des machines : celui-ci représente 60 à 70 % des dépenses en énergie du datacenter. L’époque où ces derniers étaient uniformément refroidis à 18°C est passée. L’air est désormais soufflé sur les racks à 24°C, voire 26°C parfois, ce qui abaisse de manière significative la facture énergétique du refroidissement. Les concepteurs utilisent des algorithmes de simulation CFD afin d’optimiser les flux d’air, l’idée étant de bien isoler des couloirs froids dans lesquels les serveurs vont aspirer l’air de refroidissement et des couloirs chauds avec l’air qu’ils rejettent.
En construisant un gigantesque datacenter de 100 MWh
près du cercle polaire, Facebook peut utiliser l’air ambiant pour refroidir
ses serveurs au moyen de batteries de ventilateurs.
OVH a choisi une approche en rupture avec les pratiques habituelles des datacenters, mais très populaire chez les gamers, celle du watercooling. L’approche n’est pas nouvelle au niveau d’un PC ou d’un serveur, mais le pari d’Octave Klaba est d’adapter le refroidissement liquide sur des serveurs à très haute densité et donc dans des racks où les espaces sont très limités. Si on en croit les chiffres avancés par OVH, le refroidissement à eau combiné à une gestion optimisée des flux d’air chaud et d’air froid a permis au Nordiste de faire passer son PUE de 1,3 en 2004 à 1,2 sinon 1,15 quatre ans plus tard. Depuis, OVH persévère dans cette voie et en début d’année, Octave Klaba dévoilait sur son compte Twitter le design du serveur INFv2 AI, une machine dédiée au calcul intensif et à l’IA comprenant un CPU et trois GPU Nvidia d’une puissance de 850 W. Le rack refroidi par eau peut accueillir 48 serveurs et dissiper une puissance de 40 KW.
Autre approche très en vogue, le free cooling, dont le Français Celeste s’est fait une spécialité. Nicolas Aubé, fondateur de l’entreprise explique l’intérêt de cette approche : « Le refroidissement par eau glacée réclame beaucoup d’énergie et c’est pourquoi nous avons opté pour le free cooling, c’est-à-dire faire circuler l’air ambiant dans un bâtiment vertical. Le design du bâtiment permettant de faire entrer de l’air ambiant par en-dessous et l’évacuer par la toiture. L’impact énergétique est très important car la climatisation est arrêtée dès lors que ce n’est pas nécessaire soit 80% du temps en région parisienne. Le PUE cible de l’installation atteint 1,3. »
Installer le datacenter dans une galerie souterraine, comme ici le projet
DeepData soutenu par le Conseil régional des Pays de la Loire est un moyen
de bénéficier de températures basses tout au long de l’année.
L’autre démarche forte adoptée par l’opérateur a été d’effectuer une mesure extrêmement précise de chaque équipement, de chaque serveur dans son datacenter : « J’ai été surpris de constater que nos clients n’étaient pas conscients de la consommation d’énergie de leurs infrastructures. J’ai donc placé des capteurs sur absolument toutes les alimentations des matériels installés dans les racks. » Ces milliers de capteurs radio collectent des données qui sont ensuite mise à disposition des entreprises sur leur espace client. L’opérateur peut ainsi leur proposer une facturation à la consommation réelle et non plus sur des paliers de puissance maximale. Pour Nicolas Aubé, c’est un moyen de sensibiliser les entreprises à l’impact de leurs infrastructures IT sur l’environnement et surtout les pousser à abaisser leur consommation électrique.
Microsoft teste des datacenters sous-marins dans le cadre de son projet
Natick, projet mené avec le Français Naval Group.
Le “géocooling”, une solution pour abaisser encore la facture
Enfin, pour améliorer encore l’efficacité énergétique de leurs installations, des exploitants sont allés chercher dans l’environnement le froid dont ils ont besoin. L’exemple du datacenter géant de Facebook à Lulea (Finlande) est symbolique de cette approche. Situé prés du cercle polaire, ce datacenter géant (100 MW) affiche un PUE record de 1,11 : il est plutôt bien aidé par un système de ventilation qui propulse l’air ambiant glacial dans les installations. Google s’est aussi installé en 2009 dans le sud-est de la Finlande, reconvertissant à Hamina une usine de papier en datacenter; cette année Google y aura investi 2 milliards de dollars. Flairant le filon, d’autres pays nordiques, à commencer par l’Islande où l’énergie est abondante tout autant que les basses températures, se sont positionnés comme terre d’accueil pour les datacenters, mais les temps de latence entre l’Europe continentale et ces terres froides délocalisées ont quelque peu douché leurs ambitions. Le géocooling, ou l’idée d’exploiter l’environnement pour abaisser la facture du refroidissement des installations, est aussi une solution applicable en France. Dans la région de Saumur, un datacenter en conteneur est installé dans une carrière souterraine désaffectée. À 30 m sous terre, le PUE espérée est de 1,05 à 1,1. Même dans le sud, il est possible de gagner quelques degrés de refroidissement. Interxion va utiliser une rivière souterraine pour abaisser le PUE de son nouveau datacenter marseillais. Enfin, Microsoft teste avec Naval Group un datacenter sous-marin au large de l’Écosse, une solution qui permettra peut-être à l’avenir de déployer rapidement de la puissance informatique dans une région côtière. Tous ces efforts d’optimisation ont visiblement payé. Dans un article publié dans le magazine Science, les chercheurs américains ont récemment estimé que les datacenters ont consommé 205 TWh en 2018, soit seulement 1% de la production mondiale d’électricité. Mieux encore, sur la période 2010–2018, alors que la demande de puissance de calcul a augmenté de 550%, la consommation électrique des datacenters n’aurait progressé que de 6%. La fin d’Internet ne serait donc vraisemblablement pas pour 2023 !
OVH mise notamment sur le watercooling pour abaisser le coût énergétique
du refroidissement des machines les plus puissantes,
les machines dédiées au HPC et à l’Intelligence artificielle.Les systèmes de refroidissement peuvent représenter
jusqu’à 60% à 70% des dépenses énergétiques d’un datacenter,
consommation des serveurs mise à part.
« Il faut avant tout adopter une sobriété numérique »
Édouard Toulouse, consultant expert sur l’efficacité énergétique et l’éco-conception des produits
« L’association NégaWatt estime que pour limiter la facture énergétique du numérique, il y a trois choses à faire dans le bon ordre. Il faut d’une part privilégier la sobriété, puis l’efficacité et aller vers des sources d’énergies renouvelables. Il faut commencer par changer nos comportements, nos usages pour n’utiliser le numérique qu’à bon escient. Ensuite, il faut que les fournisseurs délivrent leurs services de la manière la plus efficace possible avec les équipements les plus performants d’un point de vue énergétique. Enfin, après cela il faut recourir au maximum aux énergies renouvelables. Le numérique est un parfait exemple car les opérateurs Cloud par exemple communiquent beaucoup sur leur recours aux énergies renouvelables tout en poussant sur des usages sans limite de leurs services avec des Giga-octets de stockage offerts ou encore Facebook qui lance les vidéos par défaut, c’est une aberration totale du point de vue énergétique !»
« Nous avons tous une part de responsabilité à titre personnel »
Facebook Tristan Labaume, président de l’Alliance Green IT
« Pointer les datacenters est une vision un peu simpliste pour évoquer le problème de la consommation énergétique du numérique. On pointe du doigt les grands datacenters ou le HPC, mais ce n’est pas le sujet majeur. Ils ne représentent qu’une fraction de l’empreinte énergétique du numérique. Les terminaux pèsent plus lourd encore, de même que les réseaux et ce que l’on appelle le Edge Computing, les petites salles informatiques des entreprises et les locaux informatiques des opérateurs se comptent par milliers. Globalement, si on veut aujourd’hui obtenir des améliorations notables quant à l’empreinte environnementale du numérique, c’est en allongeant la durée de vie des matériels et des logiciels. Il faut arrêter cette obsolescence programmée qui nous oblige à remplacer les ordinateurs, les serveurs, et qui fait qu’en tant qu’individus nous changions de smartphone tous les 18 mois. L’effort doit être collectif et global. »
« L’innovation doit maintenant venir du côté des usages »
Nicolas Aubé, fondateur de Celeste
« Nous avons mis en place un système de mesure de la consommation réelle des serveurs et nos clients doivent prendre conscience qu’ils peuvent éteindre leurs serveurs lorsque ceux-ci ne sont pas exploités et j’incite nos clients à le faire. Les heures non ouvrées représentent les deux tiers des heures de fonctionnement donc on pourrait potentiellement économiser deux tiers de l’énergie actuellement consommée par ces équipements. Il faut fournir aux entreprises les moyens techniques de le faire et si les exploitants sont généralement horrifiés à l’idée d’éteindre des serveurs chaque soir, la technologie le permet actuellement. La virtualisation puis la conteneurisation ont permis de faire des avancées majeures dans l’exploitation des serveurs et je suis persuadé que la prochaine grande innovation viendra des usages. »
« Le datacenter est devenu un marché d’experts »
Fabrice Coquio, directeur général d’Interxion France
« Seul un acteur spécialisé dans les datacenters et capable d’investir massivement peut espérer améliorer significativement le PUE d’une installation. Quand nous avons racheté le datacenter de SFR à Marseille en 2014, le PUE était supérieur à 2. Sans modifier l’infrastructure mais en adoptant nos processus opérationnels, nous avons pu ramener ce PUE à 1,8. Nous avons investi plus de 48 millions dans cette infrastructure et ce datacenter, que nous n’avions pas conçu nous-mêmes, affiche maintenant un PUE inférieur à 1,5. Pour aller au-delà, c’est le design même du datacenter qui compte. On ne peut transformer une 4L en Ferrari. On se heurte aussi à des limites physiques. C’est la raison pour laquelle nous concevons nous-mêmes nos datacenters et nous avons notre propre équipe d’engineering intégrée. Le datacenter est devenu un marché d’experts et fortement capitalistique. »