Interview : Guilhem Cottet, délégué général de France Datacenter

Guilhem Cottet

France Datacenter est une association créée en 2008, qui réunit l’ensemble des acteurs de l’écosystème des datacenters en France. Son objectif est de fédérer les entreprises de la filière, d’assurer leur promotion, notamment auprès des pouvoirs publics, et de diffuser les bonnes pratiques professionnelles. Elle veille également à améliorer la compétitivité du marché français, en proie à une forte concurrence européenne.

Pouvez-vous nous présenter France Datacenter ?
Guilhem Cottet – L’objectif prioritaire de l’association est de faire se rencontrer les acteurs, car la filière est à la convergence de savoir-faire très différents issus de plusieurs secteurs : IT, BTP, énergie, réseaux. Ces trois dernières années, nous avons professionnalisé l’association afin de renforcer nos missions et nos objectifs. Pour cela, nous avons ouvert l’adhésion à de nouveaux acteurs, avec pour volonté de nous adresser à l’ensemble de l’écosystème. France Datacenter compte une centaine de membres, répartis en trois collèges. Le premier regroupe les concepteurs et constructeurs, le deuxième les exploitants et le troisième les opérateurs et utilisateurs finaux. Ces derniers sont encouragés à adhérer largement car le datacenter exige de nouvelles compétences que nous souhaitons partager avec eux.

Quels sont vos missions et votre champ d’action ?
G. C. – Nous souhaitons favoriser l’intelligence collective et améliorer les pratiques, car le datacenter est un secteur jeune et peu normalisé. Nous organisons donc une quinzaine d’événements tout au long de l’année, incluant des cocktails de networking, des conférences ou encore des réunions techniques lors desquelles nous échangeons sur les métiers et les expertises. Nous produisons également des publications sur des sujets divers, incluant les aspects réglementaires, techniques, économiques, mais aussi les usages. Enfin, nous sommes une association à but non lucratif, et nous ne possédons aucune filiale commerciale ou délivrant des formations.

Sur quels sujets se concentrent vos travaux en ce moment ?
G. C. – Nos travaux actuels visent à favoriser la croissance de la filière et l’attractivité du territoire français, notamment auprès des investisseurs étrangers. L’un des principaux obstacles au développement des datacenters est la trop grande discrétion de la filière, qui communique très peu. En effet, les datacenters sont des infrastructures très stratégiques et les différents acteurs souhaitent faire preuve de discrétion, dans un environnement marqué par une grande concurrence. Nous souhaitons « ouvrir les portes des datacenters » pour estomper l’appréhension du grand public et lui permettre de mieux comprendre les enjeux des infrastructures numériques. Nous avons constaté que l’acceptabilité passe par plusieurs éléments. D’abord la relation aux collectivités locales, car les datacenters sont des entités physiques, qui s’inscrivent dans un territoire. Cela nécessite un dialogue entre les industriels et la communauté, les élus, les associations de riverains, qui ne connaissent pas réellement les datacenters. Il convient de démontrer les impacts socio-économiques positifs, notamment en termes d’emplois. Car l’implantation de datacenters est un levier de développement économique. Un département qui refuse l’implantation de datacenters refuse aux entreprises présentes sur son territoire un service désormais fondamental à l’heure de la transformation numérique. Il se prive également de l’installation future d’autres entreprises. Un projet de datacenter vient toujours répondre à un besoin. Un autre élément central est la question environnementale, et notamment la consommation énergétique. Nous avons commencé à formaliser et valoriser les efforts des opérateurs de datacenters en faveur d’un moindre impact environnemental. Durant dix ans, pendant que les entreprises amélioraient leurs datacenters, elles n’ont pas communiqué sur leurs progrès. Or, elles ont fortement progressé sur le terrain de la réduction des consommations énergétiques, entre autres. Il ne faut pas oublier que les datacenters sont une brique nécessaire de l’édifice numérique et de notre activité économique, comme toute autre infrastructure (autoroutes, gares, etc.). Et les besoins sont énormes. Nous souhaitons donc rappeler à chacun (particuliers, entreprises, administrations) sa propre responsabilité et faire le lien entre ses propres usages numériques et les datacenters.

Quels sont les principaux enjeux des datacenters aujourd’hui ?
G. C. – Selon le type d’utilisateur, les enjeux diffèrent. Le datacenter doit en priorité assurer la disponibilité des données, en combinant fiabilité, sécurité et résilience. Mais les opérateurs sont de plus en plus vertueux en matière de gestion énergétique, parfois sous l’impulsion de leurs clients, dont la politique RSE encourage le recours aux énergies renouvelables et la réduction du PUE (Power Usage Effectiveness, l’indicateur global de performance énergétique du bâtiment). Du côté des grands datacenters, les niveaux de performance sont déjà très élevés. En outre, la filière est aujourd’hui à un tournant : l’industrie a près de vingt ans d’existence et de nombreux bâtiments commencent à être obsolètes. Il faut des bâtiments plus modernes et écoconçus pour réduire leur impact. Un autre enjeu des datacenters est la maintenance. On peut faire de l’écoconception, du free cooling ou autre, mais il est avant tout essentiel d’entretenir et auditer ses équipements et de les piloter correctement. Un autre enjeu est l’aménagement des salles serveurs (ou urbanisation), notamment le confinement des allées chaudes et froides. Cet agencement permet de faire des économies d’énergie à moindre coût.

« Nous souhaitons que le législateur et la filière parviennent à parler le même langage. Malheureusement, il n’y a aucun expert transversal du datacenter ni au ministère de la Transition écologique ni à l’Ademe. »

De quelle manière les technologies ont-elles évolué ces dix dernières années ?
G. C. – La question de l’innovation est centrale, mais complexe à traiter. Nous sommes aujourd’hui face à l’obsolescence progressive des anciens bâtiments. Et le datacenter nécessite une approche plus similaire à du BTP qu’à des équipements numériques. Un bâtiment aussi lourd et fonctionnant H24 n’entre pas en révolution tous les quatre matins. Lorsque des acteurs proposent des nouveautés, elles mettent du temps à être adoptées et ne sont pas forcément adaptées à tous types de datacenters. Il est important de noter que sur les dix dernières années, la consommation énergétique des datacenters n’a globalement pas augmenté, pour plusieurs raisons. Par exemple, il y a quelques années, les salles serveurs fonctionnaient en dessous de 17 °C, alors qu’aujourd’hui les températures tournent autour de 25 °C, grâce à l’innovation des équipements informatiques, ce qui réduit considérablement le besoin en refroidissement. Autre exemple, les onduleurs ont atteint des rendements de l’ordre de 96 %. Pour les équipements énergétiques, un travail de normalisation a été mené, ce qui n’est pas le cas pour le datacenter dans son ensemble. L’objectif est donc de miser sur le volontarisme de la filière pour prolonger ces évolutions plutôt qu’attendre une réglementation éventuellement peu adaptée. J’en veux pour preuve le projet de décret tertiaire du ministère de la Transition écologique, qui a souhaité intégrer les datacenters à un programme d’économies d’énergie dont le cadre est totalement incompatible avec les spécificités du datacenter. La réglementation des datacenters va dans le sens de l’Histoire, mais il faut le faire en coopération avec la filière pour garantir le succès du dispositif et ne pas pénaliser la croissance des acteurs. Le datacenter souffre d’une classification aléatoire selon les réglementations, parfois considéré comme un bâtiment industriel et parfois comme du tertiaire. Nous souhaitons que le législateur et la filière parviennent à parler le même langage. Malheureusement, il n’y a aucun expert du datacenter ni au ministère de la Transition écologique ni à l’Ademe.

Selon les estimations, le numérique consommerait plus de 10 % de l’énergie mondiale et ce chiffre est en constante augmentation. Quels sont les plus gros gisements d’économies d’énergie du numérique ?
G. C. – Le numérique consommerait 10 % de l’électricité mondiale, dont environ 30 % pour le réseau, entre 20 et 30 % pour les datacenters, le reste étant représenté par les usages et les terminaux. On ne peut que constater l’importance des usages. Mais chaque volet de l’écosystème présente des gisements d’amélioration. Quoi qu’il en soit, il y aura de plus en plus de datacenters, ce qui va engendrer une consommation énergétique en valeur absolue de plus en plus importante. Il faut donc agir directement au niveau de chaque bâtiment. La part de consommation énergétique du réseau va elle aussi augmenter, notamment en raison de la 5G et de la fibre. La question de la consommation énergétique, mais surtout des ressources qui entrent dans la composition des terminaux, est également un enjeu central.

Le datacenter représente de son côté environ 25 % des émissions de gaz à effet de serre liées aux activités numériques. Quelles actions vos membres mettent-ils en place pour réduire ce chiffre ?
G. C. – Les acteurs du datacenter sont davantage interpellés sur les consommations énergétiques que sur les externalités négatives. En France, les datacenters sont alimentés à 2 % par du charbon et du gaz, à 18 % par des énergies renouvelables et… à 80 % par du nucléaire, qui est une énergie faiblement carbonée. Une grande partie de ces émissions est imputable à la fabrication des équipements et du bâtiment, mais les pratiques relevant de l’économie circulaire se mettent en place. On parle souvent de la récupération des chaleurs fatales des datacenters, présentée comme une solution idéale, mais qui se heurte finalement souvent à l’infaisabilité technique ou à des modèles économiques non viables. Il faut plutôt chercher à limiter les externalités négatives en amont. Il y a dix ans, personne ne pouvait imaginer à quoi ressemblerait le datacenter d’aujourd’hui, donc tout reste possible. Il est important d’explorer des pistes d’amélioration, mais il faut faire la part des choses entre le marketing et la réalité.

Selon les estimations, le trafic mondial de données en 2020 sera six fois supérieur au trafic de données en 2011. Comment les acteurs du datacenter suivent-ils ce rythme effréné ?
G. C. – L’enjeu est différent selon les pays. La France rattrape son retard par rapport à d’autres pays européens. Paris est devenu l’une des principales places du datacenter en Europe et entre dans la catégorie des FLAP, rejoignant Francfort, Londres et Amsterdam. Le volume de données généré en France a explosé et tout le monde a été plus ou moins dépassé par ce phénomène. La France est donc aux avant-postes et est désormais en troisième position sur le marché européen, derrière le Royaume-Uni et l’Allemagne. Des pays comme l’Irlande, le Luxembourg ou les pays scandinaves, très en lumière lorsque l’on aborde le sujet des datacenters, sont parvenus à faire venir les GAFAM mais sont vite confrontés à la faiblesse de leur tissu économique. Dans ces pays, la population est trop petite et les entreprises trop peu nombreuses pour générer de nouveaux besoins. La fiscalité a joué, mais il faut autre chose pour être attractif sur le marché européen. D’autant que la tendance est à la réduction des temps de latence. Certains acteurs veulent des temps inférieurs à 2 ms. Pour cela, il faut des datacenters implantés à proximité des usagers. Dès lors, il est impensable désormais de ne pas avoir une présence en France.

Aujourd’hui, deux grandes tendances se dessinent sur le marché français. La concentration d’abord, qui pourrait aboutir à des projets de taille plus importante. La France ne compte aucun datacenter réellement qualifié d’« hyperscale », mais s’en approche. La zone d’Amsterdam est aujourd’hui saturée, tant au niveau de la disponibilité foncière que de la distribution d’énergie, et les permis de construire ne sont plus délivrés. La France a des atouts majeurs : un maillage territorial densifié avec de nombreuses villes moyennes, deux hubs à Paris et Marseille, et évidemment des réseaux de connectivité et de distribution électrique parmi les meilleurs en Europe. Autre tendance, la mutualisation des équipements, qui se fait de manière très progressive. Un article révélait récemment que trois entreprises françaises sur quatre avaient finalement quitté la solution de cloud qu’elles avaient adoptée pour mutualiser leurs données localement, dans des datacenters. Il faut donc soutenir l’émergence de ces nouveaux datacenters mutualisant les équipements de plusieurs acteurs.

Conseil d’administration de France Datacenter.

Selon votre plaquette « Les datacenters, première brique du numérique durable », 1 kWh d’énergie consommé par un datacenter représente 5 à 10 kWh d’énergie économisés dans le reste de l’économie. Pouvez-vous nous expliquer concrètement les économies générées grâce au numérique ?
G. C. – On parle toujours des impacts négatifs du numérique, mais rarement des impacts positifs. Or, pour prendre un exemple, le mail a permis de remplacer les courriers papier, ce qui constitue une solution moins carbonée. Mais le numérique a décuplé les communications, en les simplifiant, ce qui a créé un effet rebond. Le numérique n’est pas une solution miracle. Il substitue à des moyens polluants des usages qui le sont moins. Mais en simplifiant les usages, il les démultiplie. Un des principaux enjeux est de déterminer les impacts réels du numérique, autant négatifs que positifs, pour les comprendre et agir en conséquence. Il faut donc parler en pollution nette. En prenant l’exemple du bâtiment, les systèmes de comptage énergétique, de pilotage et de gestion imposent d’instrumenter l’ensemble. Des instruments qui certes ont engendré des impacts lors de leur fabrication et qui consomment de l’énergie tout au long de leur vie. Pourtant, l’impact net de l’apport du numérique est bénéfique dans ce cas, car les instruments permettent de réduire plus largement les consommations énergétiques. Autre exemple, celui des serveurs, dont 80 % du coût pollutif est engendré par la phase de fabrication, et 20 % seulement par son exploitation. Faut-il dès lors encourager l’absence de rotation et ne pas changer d’équipements tous les deux ou trois ans, même si les nouvelles machines consomment moins d’énergie ? Faut-il chercher à tout prix les économies d’énergie si cela produit un surcoût de déchets ? Il faut une réflexion globale sur le sujet, et non en silos, pour favoriser le développement des bonnes pratiques.

L’an dernier, les hébergeurs français s’étaient engagés auprès du gouvernement à réduire leurs consommations énergétiques de 15 %. De quelle manière la réalisation de cet objectif est-elle suivie et où en sont-ils ?
G. C. – Les Engagements de Croissance verte (ECV), dans lesquels la filière s’était engagée fin 2018 à travers France Datacenter, constituaient un dispositif d’adhésion volontaire. Les acteurs du datacenter étaient prêts à améliorer le PUE de leurs infrastructures et à agir sur plusieurs leviers. Seulement, le projet de décret tertiaire dans sa nouvelle version a intégré le datacenter, ce qui était inattendu. Dans la hiérarchie des normes, le dispositif volontaire passe après le décret. La filière attend donc de savoir ce que prévoira finalement le décret avant de signer les ECV, voire de les adapter pour éviter la redondance entre dispositif réglementaire et dispositif volontaire. Étrangement, les ECV étaient plus ambitieux que le décret tertiaire, quand bien même ils ne prévoyaient pas de mesure de coercition. Le décret tertiaire doit prévoir un cadre spécifique au datacenter, comme dans les autres pays où ont été initiés des programmes d’amélioration des performances énergétiques des datacenters. Il doit également reconnaître le PUE, qui est encadré par une norme, comme indicateur de référence afin de ne pas se heurter à l’infaisabilité technique et ne pas nous marginaliser dans les échanges internationaux. Au-delà des datacenters, ce texte est inadapté aux hôpitaux, par exemple. On ne va pas demander à un hôpital d’arrêter le fonctionnement de ses plateaux techniques pour faire des économies d’énergie. Il en va de même pour le datacenter, dont la moindre panne entraîne un coût impensable pour le fonctionnement de l’économie (locale ou nationale) et le bon fonctionnement des services connectés auxquels nous avons recours.

Quelles sont les particularités du marché européen et français des datacenters ?
G. C. – Au-delà des spécificités de chaque pays, nous constatons sur le marché français une double tendance. La première est la concentration du marché, engendrée par la fusion de certains acteurs et la disparition d’autres, ce qui est la marque d’un secteur dynamique. La seconde est l’apparition d’une nouvelle architecture de déploiement, l’Edge Computing. Les architectures centralisées ne sont pas nécessairement adaptées à tous les usages, je pense notamment au e-gaming ou au streaming, pour lesquels les données doivent circuler extrêmement rapidement et être au plus près des usagers. Il y aura donc une vraie complémentarité entre gros datacenters et relais plus localisés. De nouvelles solutions clés en main se développent, notamment des micro-datacenters, qui peuvent servir de relais. Certains pays européens ont lancé des plans pour devenir des « Datacenter Nations ». Ils ont compris l’importance de développer l’infrastructure avant de déployer les usages, mais il nous est apparu qu’ils manquaient des atouts dont nous disposons pour développer leurs filières respectives. De manière générale, pour qu’un pays attire de nouveaux datacenters, il faut tout faire pour favoriser des implantations rapides. En France, nous pouvons mieux faire sur la rapidité de déploiement, car ces projets nécessitent des parcours administratifs lourds et souvent peu lisibles.

Quels sont donc les atouts de la France pour l’implantation de datacenters ?
G. C. – La France est le seul pays à disposer de deux hubs, situés tous deux sur le backbone (centre névralgique du réseau) entre Paris et Marseille. De plus, un à deux projets de câbles sous-marins sont prévus pour arriver sur la côte atlantique française, depuis les États-Unis. Et cela représentera un levier incroyable de développement. Nous avons également le meilleur réseau électrique d’Europe, avec des capacités de production phénoménales qui alimentent également les pays voisins, et une vraie indépendance énergétique. La seule difficulté de la France sera d’évaluer les futurs besoins à horizon dix ans, pour préparer l’implantation des futures installations.

Combien la France compte-t-elle de datacenters et quelle est la croissance sur le marché hexagonal ?
G. C. – Nous comptons approximativement 200 datacenters d’importance, comprenant les datacenters en colocation et les grands datacenters publics et privés. Le reste des installations est constitué d’installations plus modestes, des datacenters d’entreprises ou d’administrations, parfois installés au sein d’espaces tertiaires. On en compte entre 3 000 et 5 000 et c’est sur ces installations que le gisement d’économies d’énergie est le plus important. Il faut également compter les HPC (High Performance Computing), superordinateurs chargés du calcul haute performance. La France est très bien équipée dans ce domaine car nous disposons d’un secteur de recherche très avancé. Nous souhaitons d’ailleurs faire un état des lieux de ces installations. Enfin, la dernière couche est constituée du Edge Computing, une tendance lourde du secteur.

Quelles technologies impacteront les datacenters dans les cinq années à venir ?
G. C. – Je pense qu’il est impossible de prévoir quelles technologies s’imposeront dans les années à venir. De nombreux travaux sont menés, notamment sur la question énergétique, les logiciels DCIM (Datacenter Infrastructure Management) ou encore l’Edge computing. Certaines start-up développent des outils d’aide à la maintenance, grâce à des robots ou à la réalité augmentée par exemple. L’intelligence artificielle permettra de son côté d’améliorer la gestion, de créer des modèles et de prédire les pannes. On sent des tendances, mais il est impossible de prévoir quelles technologies auront un impact réel ni à quoi ressemblera le datacenter dans vingt ans.

De quelle manière France Datacenter va-t-elle poursuivre ses travaux et se développer dans les cinq années à venir ?
G. C. – Nous menons des actions sur plusieurs fronts. D’abord, il nous semble primordial que de nouvelles entreprises nous rejoignent et alimentent notre réflexion : Web giants, entreprises ou administrations utilisatrices ou encore opérateurs télécoms. Tous ont un rôle à jouer dans la filière et nous souhaiterions intensifier le dialogue avec eux pour en savoir plus sur leurs enjeux et les sensibiliser à nos problématiques. Ces catégories d’acteurs permettraient à France Datacenter d’aborder des sujets nouveaux et plus transversaux, mais aussi de mobiliser l’ensemble des acteurs de la chaîne de valeur des datacenters. Il faut faire du datacenter un enjeu collectif.

Pensez-vous que le numérique parviendra à atteindre l’objectif de zéro émission nette en 2050, comme le prévoit l’Accord de Paris ?
G. C. – Nous sommes très volontaristes mais, dans ce cas précis, il est important que les pouvoirs publics apportent des solutions, des incitations et montrent l’exemple. Le service public a un devoir d’exemplarité et de transparence. C’est l’État qui a pris ces engagements, or force est de constater qu’aujourd’hui les datacenters du service public sont loin d’être les plus vertueux. S’agissant des datacenters, le décret tertiaire est un texte hors-sol et préjudiciable à la filière, élaboré par des services hélas trop peu à l’écoute. Avançons progressivement, ensemble, pour que les objectifs d’amélioration des performances du numérique deviennent une réalité.

Propos recueillis par Alexandre Arène

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *