Dominique Néel, vice-président du SERCE : « L’IA mobilise des calculateurs d’une puissance considérable, ce qui entraîne mécaniquement une augmentation très forte de la puissance électrique consommée. »

© Nicolas Gouhier

L’essor de l’intelligence artificielle bouleverse l’équation énergétique et technique des datacenters. Puissance de calcul en forte hausse, refroidissement au plus près des processeurs, redondance des infrastructures électriques, maintenance spécifique : les défis sont nombreux. Dominique Néel, vice-président du SERCE, détaille les impacts de l’IA, les atouts de la France, l’accompagnement des entreprises du SERCE et les évolutions qui redessinent un secteur en pleine transformation.

Quel est l’impact de l’arrivée de l’IA sur les datacenters ?
Dominique Néel Nous identifions deux principaux impacts. Le premier concerne la puissance de calcul. L’IA mobilise des calculateurs d’une puissance considérable, ce qui entraîne mécaniquement une augmentation très forte de la puissance électrique consommée. Le second impact, c’est la donnée. L’IA nécessite des quantités gigantesques de données qui doivent être disponibles rapidement et transférées vers ces calculateurs. Cela crée des besoins de traitement et de transport de données sans commune mesure avec ceux que nous connaissions auparavant. En pratique, cela se traduit par des points de concentration électrique très importants. Si l’on compare avec les datacenters construits au début des années 2000, une baie consommait moins de 1 kW. Vers 2010, on pouvait monter à 5 kW par baie. Pour le cloud computing, vers 2020, c’est 20 kW par baie. Aujourd’hui, avec l’IA, certaines baies atteignent déjà 50 kW et on nous promet des baies à 120 kW, 200 kW et plus dans le futur proche. On voit bien la marche énorme qui est franchie, et qui oblige à repenser complètement l’architecture électrique et les solutions de refroidissement : nous sommes dans une période de forte évolution technique où nous continuons à construire des infrastructures pensées pour le Cloud Computing, qui auront de plus en plus la capacité d’intégrer des baies dédiées à l’IA en très haute densité et refroidies en liquid cooling.

Comment la France se situe-t-elle face à ces nouveaux besoins ?
D. N. La France a la chance de disposer d’un réseau électrique puissant, fiable, compétitif et largement décarboné, grâce au nucléaire et à un mix incluant également l’hydraulique, l’éolien et le photovoltaïque, et grâce aussi aux entreprises du SERCE qui interviennent au quotidien sur toute la chaîne de l’infrastructure énergétique. Nous avons moins de datacenters que d’autres pays européens – deux fois moins que l’Allemagne ou le Royaume-Uni –, mais la croissance est forte. Paris et sa périphérie concentrent beaucoup de projets, Marseille est en train de devenir le cinquième hub mondial pour le transit des données, les Hauts-de-France, Bordeaux et la Normandie accueillent aussi de nouvelles implantations. Les chiffres parlent d’eux-mêmes : aujourd’hui, la consommation des datacenters en France est légèrement inférieure à 1 GW. Mais les réservations déjà effectuées auprès de RTE représentent environ 6 GW. Le réseau français peut, quant à lui, atteindre 105 à 110 GW en période de pointe. Cela montre la marge considérable dont nous disposons actuellement pour développer les datacenters.

C’est une chance en Europe que la France dispose aujourd’hui de telles capacités. Au niveau global, ne pas avoir d’infrastructure IA, tant pour l’entraînement des IA (qui n’a lieu aujourd’hui qu’aux États-Unis et en Chine) que pour faire tourner les modèles IA (l’inférence), c’est courir le risque pour l’Europe d’être reléguée au second plan dans quelques années. Notre énergie est décarbonée, nos réglementations environnementales sont au meilleur niveau d’exigence : dans l’intérêt de tous, il est préférable que les nécessaires nouvelles infrastructures pour l’IA et le cloud computing de demain puissent être réalisées en France, et les entreprises du SERCE sont prêtes à les accompagner.

Cette montée en puissance change-t-elle les approches de refroidissement ?
D. N. Oui, complètement. Les technologies évoluent. Après la phase de l’Air Cooling, on s’oriente désormais vers des solutions beaucoup plus proches du microprocesseur. Cela peut être le refroidissement par immersion dans des liquides spécifiques, ou le Liquid Cooling via des circuits d’eau et des échangeurs thermiques au plus près de la puce. Ce sont des techniques qui existent depuis longtemps et l’enjeu est de les monter en puissance et de les généraliser en assurant un très haut niveau de qualité de réalisation dans des délais maîtrisés. C’est un nouveau métier qui se développe, à la croisée du génie électrique et du génie climatique. Il ne s’agit plus seulement de climatiser une salle, mais d’aller chercher la chaleur là où elle est produite. Autre évolution importante : les systèmes ne sont plus dimensionnés pour la charge maximale théorique, mais adaptés au refroidissement et à l’échauffement réel du processeur. Les installations sont plus finement régulées, avec des boucles d’eau fermées. Le secteur atteint déjà des PUE de 1,3, parfois 1,2. Nous ne sommes plus dans les 2 ou 2,5 du passé.

Quelles sont les implications concrètes sur l’infrastructure électrique ?
D. N. Les besoins sont tels qu’il faut souvent créer des postes sources dédiés, connectés directement au réseau de RTE ou d’Enedis. Ces postes sont eux-mêmes redondés. À l’intérieur du datacenter, tout est doublé. Chaque équipement est alimenté par plusieurs arrivées électriques distinctes, et chaque ligne est sécurisée. Il existe différentes façons d’assurer la redondance pour optimiser les coûts énergétiques et l’empreinte carbone des installations, tout en assurant une capacité de maintenance à chaud des installations. Le câblage est conçu sans croisements, pour éviter qu’un incident sur une ligne n’affecte l’autre. Cela demande une ingénierie très poussée et une très grande rigueur en exploitation. En clair, l’électricien d’aujourd’hui ne fait plus du câblage classique. Il travaille sur des architectures propres aux bâtiments critiques, comme les hôpitaux ou les opérateurs d’importance vitale (OIV).

Qu’est-ce que cela implique pour la maintenance ?
D. N. Cela change beaucoup de choses. Les techniciens doivent être formés spécifiquement pour intervenir dans des environnements très sensibles, avec des habilitations électriques particulières. Ils travaillent souvent au voisinage d’équipements sous tension, avec des procédures strictes. Ensuite, la maintenance est de plus en plus préventive et prédictive. On ne se contente pas d’attendre la panne. Les équipements sont surveillés, leurs cycles de vie sont analysés, et nous échangeons avec les constructeurs pour anticiper les remplacements. L’objectif est de réduire au maximum le risque d’incident, car les conséquences d’une panne sont critiques. Enfin, il faut que les métiers électriques et climatiques travaillent ensemble. Une intervention électrique peut avoir un impact sur le refroidissement, et inversement. L’approche est désormais globale.

Quelles perspectives au-delà des nouvelles constructions ?
D. N. Il ne faut pas oublier le parc existant. Beaucoup de datacenters ont été construits dans les années 2000. Ils sont moins puissants que les nouveaux, mais ils peuvent être modernisés. Le rétrofit et la réurbanisation de ces sites offrent des perspectives intéressantes, notamment pour améliorer leur efficacité énergétique et prolonger leur durée de vie. Encore une fois, l’expérience et le savoir-faire de nos entreprises sont clés.

Peut-on envisager une contribution des datacenters à la flexibilité énergétique ?
D. N. Oui, plusieurs leviers existent. Certains calculs peuvent être différés. Il est également envisageable d’ajuster légèrement la température de fonctionnement des puces, en passant par exemple de 23 à 25 °C, ou utiliser l’inertie thermique des bâtiments en stockant du froid. Le recours aux groupes électrogènes, en revanche, doit rester exceptionnel, pour des situations d’urgence uniquement. Sur les énergies renouvelables, je suis plus nuancé. Les datacenters se raccordent au réseau, et peuvent souscrire à des contrats d’électricité verte. Construire une ferme solaire ou éolienne dédiée n’a pas forcément de sens. En revanche, la valorisation de la chaleur fatale est une piste majeure : alimenter un hôpital voisin, un apport au réseau de chauffage urbain et, pourquoi pas, une serre ou une piscine, cela a un vrai potentiel.

Enfin, l’IA a-t-elle aussi un impact sur vos propres métiers ?
D. N. Oui, bien sûr. L’IA devient un outil d’aide au design, à l’exploitation et à la maintenance. Elle permet d’anticiper certains incidents, d’optimiser les réglages. Mais attention : l’IA ne remplace pas l’humain. Une panne électrique, un changement de groupe électrogène, cela reste du travail de terrain, avec des savoir-faire concrets. L’IA est un appui, mais pas une substitution dans nos métiers.

Propos recueillis par Alexandre Arène