Le datacenter : des données, de l’électricité, du refroidissement et de la chaleur fatale

© Yves Grandmontagne

Le datacenter est l’infrastructure industrielle du numérique et un marché en forte progression, qui se positionne à la pointe des technologies pour s’adapter aux contraintes réglementaires et environnementales, et à la crise énergétique. S’il se montre vertueux, c’est aussi à ses clients IT de l’accompagner pour faire encore mieux.

Depuis son origine, le datacenter est l’infrastructure industrielle qui héberge l’informatique des entreprises. Il réunit l’immobilier, l’électricité, le refroidissement, les interconnexions et la sécurité. Et il n’existerait pas sans la donnée. Mais pour comprendre ses modèles comme ses problématiques, il est nécessaire de le distinguer de l’IT auquel il est indispensable. C’est ainsi qu’aux experts qui ont encensé la résistance de l’Internet lors de la crise Covid, nous opposerons la résilience des datacenters, qui ont offert la continuité au cloud malgré la multiplication des usages, dont le télétravail.

Le datacenter est également un marché. Un écosystème qui repose sur des investisseurs, des bureaux d’études, des architectes, des constructeurs, des énergéticiens, des équipementiers, des télécoms, des sociétés de service, des exploitants, des techniciens, et bien évidemment des clients. Il intéresse la finance pour ses investissements sur le long terme (jusqu’à plus de 20 ans), plus rentables que des centres commerciaux ou des bureaux. Les investisseurs institutionnels (Caisse des Dépôts, Banque des Territoires) comme les fonds d’investissement ou souverains accompagnent financièrement les projets. Et la marge est grande, du plus petit datacenter neutre en construction en France (Stratosfair) avec un budget de 1,5 million d’euros, au plus grand datacenter, le campus de Digital Realty à La Courneuve, un investissement de plus de 1,25 milliard d’euros.

Retour sur les fondamentaux du datacenter
La donnée est le moteur des datacenters. Le volume des données numériques créées double tous les deux ans – tous les ans dès 2025. Nous sommes tous, par nos usages, nos smartphones, notre consommation de l’Internet et du cloud, responsables de ce phénomène inflationniste. Voilà pourquoi la construction des datacenters suit le même rythme, car il faut bien placer ces données et les exploiter dans des lieux protégés. Difficile de faire machine arrière, nous sommes engagés dans la transformation numérique. À l’exemple de la migration vers le cloud. Et peu importe les questions de propriété, de sécurité ou de souveraineté, les géants du cloud public sont les premiers consommateurs des datacenters, ils réservent 80 % des espaces IT construits.

Mais la saturation guette. La France ne manque pas d’espaces pour accueillir des datacenters, ce qui favorise le développement de projets en région. Mais le nord de Paris, terre d’accueil des géants de la colocation, souffre de congestion. En particulier sur la capacité à alimenter les projets (160 MW engagés sur les projets en construction, autant pour alimenter les projets à venir). Après Amsterdam et Dublin, Paris frôlerait la saturation. Et avec la crise énergétique, qui a démarré avant la crise géopolitique liée à l’Ukraine avec les problèmes du nucléaire, la situation n’est politiquement pas favorable aux datacenters.

Crise énergétique et prix de l’électricité
Le numérique est indissociable de l’électron (électricité). L’énergie consommée par les infrastructures informatiques et leur refroidissement est le premier poste de dépense dans le datacenter. Et celui-ci explose, les tarifs jouent au yoyo avec une marge d’augmentation selon les cours qui varie de 100 % à 500 %. Pour autant, les datacenters se sont montrés vertueux en améliorant l’efficacité énergétique. Au cours de la dernière décennie, le nombre de datacenters a doublé, mais leur consommation énergétique n’a augmenté que de 6 %. Et pour tenir leurs engagements environnementaux, ils se tournent vers les énergies renouvelables. Et ils recourent aux PPA (Power Purchase Agreements), les engagements dans la construction des ENR, qui viennent compenser la consommation de l’énergie nucléaire et/ou carbonée. C’est plutôt tiré par les cheveux, mais au moins cela finance la filière.

Côté IT, serveurs et processeurs chauffent, plus encore lorsqu’il s’agit de calcul HPC (High Performance Computing). Pour se protéger contre les risques de dysfonctionnement liés à l’élévation de la température sur les serveurs, il faut refroidir les salles informatiques. Le free-cooling, le refroidissement par l’échange entre l’air chaud de la salle informatique et l’air frais extérieur, et le confinement de l’IT en allées chaudes et froides ont rendu le refroidissement moins consommateur d’énergie et plus efficace, rendant les datacenters plus vertueux. L’adiabatique, le refroidissement via des micro-molécules d’eau, fait aussi son chemin. Mais avec la concentration des technologies et l’adoption du HPC, ces technologies atteignent leurs limites. D’autres solutions émergent, comme le liquid cooling (refroidissement liquide directement sur le processeur) ou l’immersion (les serveurs sont trempés dans un liquide diélectrique). Elles sont certainement l’avenir.

Concentrons-nous sur la chaleur fatale, la chaleur émise par les serveurs et captée par les systèmes d’échange pour être dispersée à l’extérieur du datacenter, considérée comme perdue. Des projets de datacenters ont été bloqués pour l’absence d’exploitation de la chaleur fatale. D’autres se sont au contraire fait remarquer par leur capacité à l’exploiter, comme Equinix PA10 dont la chaleur captée va alimenter la piscine olympique des JO 2024, ou encore des serres de production agricole. Mais ces projets sont rares en France, où les réseaux de chaleur ne sont pas adaptés, également moins accessibles (les zones industrielles sont éloignées des zones urbaines), et le coût de raccordement se chiffre en millions d’euros, ce qui les rend peu attractifs. L’inclusion des datacenters dans le grid énergétique et l’augmentation de la température dans les salles serveurs devraient permettre d’inverser la tendance avec une chaleur fatale supérieure à 30 °C enfin exploitables.

Le rendez-vous du datacenter vertueux et de l’IT
En matière d’environnement, le datacenter est trop souvent vu comme un pollueur, alors qu’il évolue dans un environnement réglementaire à plusieurs dimensions particulièrement contraignant. La décarbonation – l’Europe impose aux datacenters d’être zéro carbone dès 2030 –, l’énergie, l’eau sont devenues des préoccupations majeures. Et les clients reportent sur les exploitants une partie de leurs engagements RSE. Les acteurs du datacenter ne les ont pas attendus. Même si ce n’est pas simple. Par exemple, le béton dans la construction représente la plus grosse part du CO2 émis par les datacenters. Quant aux clients, les DSI ne sont pas enclins à prendre ce qu’ils considèrent comme des risques. Ils exigent des températures de l’ordre de 20 à 22 °C, et refusent de les augmenter à 24 voire 26 °C, même siles équipements le permettent et que cela réduirait leur facture d’électricité de 5 à 10 %.

Il reste encore beaucoup d’axes d’études pour rendre le datacenter encore plus vertueux. Sous pression, France Datacenter, qui regroupe les acteurs de la filière, a répondu positivement à l’appel du gouvernement à l’industrie pour pratiquer l’effacement. Ce qui va imposer aux datacenters de tourner sur leurs groupes électrogènes de secours durant les coupures afin d’assurer la continuité d’activité. De quoi lancer le débat sur le datacenter qui produit et partage sa propre énergie, et intègre le grid énergétique. Mais le principal axe devrait porter sur l’IT, loin d’être aussi vertueux avec ses températures basses et ses serveurs fantômes qui pourraient être coupés. Les datacenters ont beaucoup investi et réalisé des transformations profondes pour réduire leur consommation énergétique, en particulier sur le refroidissement. Aux clients de participer à l’effort commun, en élevant les seuils de température et en optimisant leur gestion. Une voie sur laquelle est engagé le datacenter avec le DCIM (Data Center Infrastructure Management) et l’arrivée de l’IA pour affiner son pilotage. Les prochaines années seront riches pour un secteur qui reste très actif malgré la crise.

Yves Grandmontagne

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *