Tristan Labaume, président de l’Alliance Green IT

Tristan Labaume

L’Agit est une association de professionnels du numérique fondée en 2011, avec pour objectif de diffuser les bonnes pratiques et de clarifier la communication autour de l’informatique et en évitant le « greenwashing ». Elle regroupe une quarantaine d’entreprises de toutes tailles et de tous horizons, pour promouvoir les bonnes pratiques sur l’ensemble des domaines de l’IT : datacenters, infrastructures, impressions, postes de travail, gouvernance, fin de vie, applications et entreprises utilisatrices.

Sur le même sujet

Quelles sont les missions de l’AGIT et son rôle auprès des acteurs de l’IT ?

T.L. – La démarche que nous menons est progressive : elle s’inscrit dans le temps et se base sur l’amélioration continue. Notre objectif n’est pas de comparer entre eux les acteurs de l’IT, il n’y a donc pas de meilleur et de moins bon. Chaque société a son mode de fonctionnement et l’objectif est de savoir où elle en est, de façon à pouvoir définir des indicateurs susceptibles de la faire progresser. Cette démarche est multi-domaines : ce n’est pas en maîtrisant l’un des domaines qu’une société peut être qualifiée de « green ». Prenons l’exemple d’un acteur disposant d’un datacenter écoefficace, mais dont le reste de l’activité n’a pas fait l’objet de démarches environnementales. Dans ce cas, nous ne considérons pas que cet acteur est « green ». Il faut également prendre en compte les étapes amont, qu’il s’agisse de la fabrication du matériel ou de son achat : l’objectif est d’optimiser sa durée de vie pour éviter de refabriquer du matériel neuf et de générer des DEEE. Ces informations concernent les fabricants de matériel, qui communiqueront sur leurs produits via l’affichage environnemental, les éditeurs de logiciels qui doivent s’assurer de la compatibilité des systèmes d’exploitation et de la conception des logiciels, mais aussi les utilisateurs, demandeurs de services, de disponibilité et de consommations et de l’écoconception des services numériques. La volonté de l’ensemble des acteurs ne suffit pas, il faut aussi une volonté réglementaire, via des obligations et une fiscalité incitative ou punitive.

Le numérique consommerait plus de 10 % de l’électricité mondiale. Jusqu’où peut-on aller ?

T.L. – En France, l’informatique représente même plus de 13 % de la facture d’électricité, et la croissance dans ce domaine est exponentielle. D’autant plus que l’efficience des produits et des infrastructures se voit compensée par la multiplication du nombre d’équipements. Sur le papier, la consommation électrique due au numérique pourrait atteindre des sommets. Mais cette croissance sera rapidement limitée par l’épuisement des ressources nécessaires à la fabrication de composants électroniques : il faut par exemple entre 10 et 20 composants pour fabriquer un téléphone, et les minerais nécessaires à leur fabrication pourraient être épuisés d’ici 2 à 30 ans. Les prix des produits sont donc amenés à augmenter considérablement. La non-réparation des équipements due au low-cost est également un gros problème, car elle pousse à racheter systématiquement de nouveaux produits. En France en 2015, il a été mis sur le marché l’équivalent de 166 fois le poids de la tour Eiffel en produits électroniques, ce qui est considérable.

À part quelques grands sites (Google, Amazon…), l’utilisation d’énergies renouvelables dans les datacenters se développe-t-elle vraiment ?

T.L. – De manière générale, l’utilisation du renouvelable dans les datacenters ne se développe pas. Il ne faut surtout pas confondre les GAFA (Google, Amazon, Facebook, Apple) avec les autres acteurs des datacenters. Tout d’abord, leurs moyens et leurs volumétries sont incomparables. De plus, disposant de multitudes d’installations, les GAFA créent des architectures techniques homogènes et transposables d’un datacenter à l’autre, ce qui réduit considérablement les coûts d’achat, d’installation et de maintenance du matériel. Contrairement à ces grands acteurs, la majorité des entreprises mettent en place des solutions hétérogènes, faisant appel à différents équipements, plus ou moins efficients et plus ou moins vieux. Sur la question des énergies renouvelables pour l’alimentation des datacenters, il faut dissocier les besoins en climatisation qui peuvent et pourront d’autant plus être alimentés par des énergies renouvelables et la partie consommation électrique des serveurs qui nécessite le recours à de gros volumes d’électricité de manière constante. Il faut rester réaliste : la puissance électrique nécessaire au fonctionnement d’un datacenter est bien trop importante pour que des panneaux solaires puissent suffire à son alimentation. De plus, les énergies renouvelables sont intermittentes, ce qui pose un réel problème pour ce qui est de la continuité d’alimentation d’un datacenter, qui fonctionne jour et nuit. Et la question de l’intermittence des EnR amène au sujet épineux du stockage de l’électricité. Il n’existe pas aujourd’hui de solution de stockage assez puissante pour alimenter un datacenter : les batteries permettent de tenir environ une vingtaine de minutes avant le démarrage d’un groupe électrogène. Le couplage production d’EnR et batteries n’est pas une solution pérenne aujourd’hui.

On parle beaucoup des consommations électriques des datacenters, néanmoins, ce n’est qu’une partie du problème ; si l’on peut être objectif d’un point de vue environnemental, il faut prendre en considération les réseaux de télécommunication et les terminaux (smartphone, PC, objets…) et d’autres indicateurs environnementaux tels que l’épuisement des ressources, les émissions de gaz à effet de serre, la production de déchets.

Le refroidissement reste le plus gros consommateur d’énergie du datacenter ; les nouveaux datacenters sont plus performants, mais qu’en est-il de la rénovation de nombreux datacenters anciens et très énergivores ?

T.L. – Les gouffres à énergie existent encore. Il y a 2 ans, le PUE moyen était de 2,5 : cela signifie que pour 1 W consommé en informatique, 1,5 W sont consommés pour les autres fonctions, notamment pour la climatisation. En conditions optimales d’utilisation, un PUE de 1,3 est atteignable. Seulement, un datacenter est conçu pour atteindre un PUE cible, mais il y a une différence entre le PUE cible défini pour une charge informatique optimale et le PUE réel lié à la réalité des équipements informatiques effectivement installés. Par ailleurs, afin d’homogénéiser les communications et d’éviter justement le greenwashing, le PUE est depuis avril 2016 défini dans une norme ISO.

Il reste donc un certain nombre de datacenters très énergivores en France. Mais aujourd’hui, personne ne refait un datacenter pour sauver la planète. Il faut pour cela que les exploitants de ces infrastructures coûteuses y voient des gains significatifs potentiels à la clé. Cela va avec l’évolution de la technologie et l’augmentation des puissances, ce qui implique un meilleur rendement, mais aussi une augmentation des consommations.

Les gains ne viennent-ils pas aussi de l’optimisation des usages, de l’allocation et de l’utilisation des machines ?

T.L. – Optimiser les usages, c’est avant tout bien dimensionner le besoin et enlever tout le gras numérique inutile et qui ralentit la performance des applications. Optimiser les usages dépend aussi des utilisateurs. Le besoin doit être défini en adéquation avec la réalité. Est-ce vraiment nécessaire que certains serveurs restent allumés 24h/24 pour des applications qui ne nécessitent pas une telle disponibilité ? Il me semble que non, mais aujourd’hui personne n’est prêt à réduire la disponibilité du service pour faire des économies. Un autre problème est celui des serveurs zombis, qui représenteraient environ 15 % du nombre total de serveurs en fonctionnement. Ces serveurs fonctionnent, mais n’accueillent aucune donnée et n’ont plus non plus vocation à en accueillir. Ils n’ont tout simplement jamais été débranchés. Une autre question est celle des serveurs virtuels qui, selon les éditeurs de ces logiciels, diviserait par 4 la consommation électrique dans des conditions idéales… de laboratoire. La réalité est tout autre puisqu’il n’y a pas nécessairement un remplacement systématique de vieux serveurs énergivores sous-utilisés par des serveurs hyper-efficients utilisés de manière optimale. Le « cloud », quant à lui, permet de mutualiser le stockage de données, mais soulève la question de l’impact sur l’infrastructure réseau et celle de la redondance : les données, pour être disponibles à tout moment, peuvent être stockées entre 1 et 10 fois sur le « cloud ». Cela implique un besoin excessif d’espace dans le « cloud » et donc une consommation énergétique accrue.

Peut-on vraiment récupérer une partie de la chaleur fatale des datacenters et si oui de quelle manière ?

T.L. – Ce sujet relève davantage du fantasme que de la réalité de terrain. Dans l’imaginaire collectif, un datacenter est un gros radiateur, qui nécessite une grosse climatisation pour le refroidir. Sur le papier, on se dit donc que cette chaleur est jetée. Techniquement, a minima, il est facile de récupérer la chaleur fatale du datacenter pour chauffer les bureaux associés à ce dernier, par contre, pour pouvoir récupérer la chaleur fatale d’un datacenter vers d’autres usages, il faut trouver un accord entre le datacenter et les utilisateurs finaux de chaleur. De plus, il faut réaliser un branchement et créer un contrat de distribution.

Les nouveaux outils comme les solutions DCIM permettent-ils d’améliorer l’efficacité énergétique des datacenters ? Pouvez-vous nous en dire davantage sur ces outils ?

T.L. – Il est important de rappeler que les solutions DCIM ne sont pas, à la base, des outils de pilotage énergétique, mais d’optimisation de l’exploitation. L’une des composantes concerne certes le suivi et le pilotage énergétique, mais il ne s’agit pas de la solution dans sa globalité. Ce qui est intéressant dans un datacenter, c’est de suivre des indicateurs dans le temps, comme le design du datacenter et son fonctionnement, très bien suivis par le DCIM. Par ailleurs, le déploiement d’outils DCIM permet de développer des outils communs entre les différents acteurs du datacenter (infrastructure technique, infrastructure informatique), ce qui permet de mieux gérer les risques. Cependant, ces solutions ne donnent donc pas de retour sur investissement direct de la partie énergétique du datacenter, mais sur le processus d’exploitation, qui peut contenir une composante énergétique.

Les indicateurs (PUE par exemple), les écolabels et codes de conduite sont-ils la bonne voie à suivre pour inciter les exploitants à améliorer leurs sites ?

T.L. – L’Alliance Green IT a produit un document sur le PUE, intitulé : « PUE, un bon indicateur environnemental ? » Un PUE faible n’est pas systématiquement synonyme de « green ». C’est une condition nécessaire mais pas suffisante et il est indispensable de regarder en parallèle les consommations énergétiques. Un code de conduite européen (UE Code of Conduct for Datacenter), construit dans la neutralité, détaille les démarches vertueuses et les bonnes pratiques. Encore une fois, l’objectif n’est pas de classifier les bons et les mauvais, mais d’inscrire les entreprises dans les démarches d’amélioration continue. La question des usages est centrale et c’est la proactivité des usagers qui permettra d’avancer sur ces questions.

Combien de bons élèves et de sociétés font-ils du « greenwashing » ?

T.L. – Au niveau de l’Alliance Green IT, nous avons publié le baromètre des pratiques du Green IT en France ; dans ce document, vous pourrez retrouver par sujet quelles sont les actions mises en place au sein des organisations en France. L’objet de notre association est de sensibiliser et diffuser les bonnes pratiques, donc, nous ne « listons » pas les mauvais élèves… L’édition 2017 de notre étude va être publiée en juin.

Pensez-vous que le « cloud » est vraiment plus « green » ?

T.L. –  Je vous conseille de visionner une vidéo YouTube que nous avons mise en ligne en 2015 intitulée : « Le Cloud est-il Green ? » De manière générale, les vendeurs de « cloud » communiquent sur le fait que, par nature, le « cloud » est « green ». Cette question est très intéressante, car, sur certains aspects, cette affirmation peut se révéler proche de la réalité, mais, sur d’autres, elle en est très éloignée. Aucune limite n’est affichée, si ce n’est le prix et il n’y a aucune incitation à la baisse du volume de données hébergées. De plus, le décommissionnement, qui consiste à l’archivage des données historiques, n’est pas effectué systématiquement au moment du passage au « cloud » : des données anciennes et souvent très peu utilisées sont hébergées au même titre que les données utiles qui doivent être disponibles immédiatement. Enfin, le dimensionnement des ressources est un enjeu primordial. Il consiste, pour chaque installation, à définir le besoin et à appliquer des niveaux de résilience et de redondance optimaux. Cette étape fait souvent l’objet de surévaluations, ce qui amène à des besoins en équipements IT et en énergie plus importants que les besoins réels. Sur certains aspects, les équipements nécessaires au fonctionnement du « cloud » deviennent plus efficaces, mais, en parallèle, la demande croissante et la résilience trop importante des installations font considérablement augmenter le nombre de ces installations, pour un impact global en constante augmentation.

Propos recueillis par Alexandre Arène

Laisser un commentaire

Laissez un commentaire en remplissant les champs ci-contre ou utilisez votre compte