Jean-Marc Menaud, professeur à l’IMT Atlantique

Jean-Marc Menaud

Membre de l’équipe de recherche « Stack », une équipe commune de l’IMT Atlantique, de l’INRIA et du LS2N et focalisée sur les sujets liés aux datacenters et aux enjeux du Cloud Computing, Jean-Marc Menaud est également professeur à l’IMT Atlantique, école généraliste issue de l’IMT. Avec le groupe de recherche « Stack », il étudie l’impact des infrastructures et notamment les possibilités offertes par le « Fog Computing » et le « Edge Computing », qui consistent à installer des micro datacenters en bordure de réseau pour gagner en temps de latence et en efficacité énergétique, grâce à des réponses locales et rapides.

Sur le même sujet

Le numérique consommerait plus de 10 % de l’électricité mondiale. Comment va évoluer ce chiffre selon-vous ?
Jean-Marc Menaud –
Un rapport paru récemment détaillait le ralentissement de la progression de la consommation d’énergie du numérique. Nous avons connu une forte progression entre 2000 et 2010, avec une croissance de + 10 à + 20 % des consommations. Cette progression stagne aujourd’hui avec une progression comprise entre + 2 et + 4 % depuis 2010. Il y a deux raisons pour expliquer ces chiffres. D’une part, les constructeurs de salles de serveurs sont sensibles à la consommation énergétique, pour des raisons écologiques, mais surtout économiques. D’autre part, les datacenters sont de plus en plus gros et les exploitants préfèrent migrer vers ces gros centres de données. Les petits exploitants n’ont pas le temps, quelques fois les compétences et les moyens pour réduire les consommations de leurs serveurs. Il est important de comprendre que les plus gros datacenters, sont globalement proportionnellement moins consommateurs que les plus petits. La tendance est donc en pleine stabilisation et il est difficile de savoir aujourd’hui comment évoluera la part d’énergie mondiale consommée dans les années à venir pour le numérique, sachant que l’utilisation d’internet est de plus en plus importante et que l’arrivée de l’IoT (internet des objets) devrait faire bondir les consommations liées à l’IT. De plus, depuis les années 2000, l’usage d’internet poursuit sa forte progression.

De quelle manière concevez-vous l’évolution vers le « Green IT » ?
J.-M. M. –
Il y a aujourd’hui beaucoup de travaux qui portent sur l’efficacité énergétique des datacenters et l’intégration d’énergies renouvelables, qui sont une source fluctuante, intermittente. Les constructeurs font de gros efforts pour rendre l’IT plus « Green », notamment en faisant en sorte que les serveurs peu ou pas utilisés consomment le moins possible. Cela s’appelle l’ « Energy Proportional Computing ». Il y a 10 ans, même quand les machines ne faisaient rien, elles consommaient énormément. Aujourd’hui, comme dans de nombreux domaines, l’objectif est d’adapter les consommations aux utilisations. Un autre point central dans l’évolution vers le « Green IT » est l’éco-conception des logiciels, apparue peu après l’arrivée des Smartphones et qui concentre aujourd’hui une grande quantité de ressources. Au niveau des logiciels de gestion des datacenters, de nombreux progrès ont également été faits, notamment sur l’éco-conception des softwares censés piloter les serveurs. Mais sur ce point, on ressent toujours une certaine réticence des gestionnaires de datacenters, qui craignent la panne (lors de l’allumage et extinction des serveurs). Des réflexions sont également en cours sur un « mode veille », qui est très peu utilisé sur les serveurs. Aujourd’hui, il faut encore allumer et éteindre physiquement les serveurs et le risque de pannes est élevé. On note également la recrudescence du nombre de travaux relatifs à l’intégration des énergies renouvelables aux salles informatiques et portant notamment sur la manière de gérer l’intermittence de ces sources d’énergie. Enfin, la dimension thermique est également un enjeu central des centres de données et notamment les questions liées au refroidissement. Entre autres, deux options sont étudiées et font l’objet d’expérimentations. Tout d’abord, il serait intéressant de permettre aux serveurs de fonctionner à haute température. Ensuite, la question des techniques de refroidissement se pose. Le seul problème est que la réflexion se concentre souvent sur des solutions à base d’air : il est important de rappeler que l’air est un isolant. Des solutions utilisant de l’eau, de l’huile, mais aussi des couloirs froids ou chauds combinés à des systèmes de confinement sont aujourd’hui les solutions de refroidissement des plus efficaces.

Vous évoquiez l’utilisation des énergies renouvelables pour alimenter les datacenters. À part quelques grands sites de Google, Amazon, Facebook ou Apple, ce recours à des sources alternatives d’énergie se développe-t-il réellement ?
J.-M. M. –
L’intégration d’énergies renouvelables reste un sujet de recherche. Au sein de l’IMT Atlantique, nous avons créé un petit datacenter, qui compte une soixantaine de serveurs et alimenté à l’aide de panneaux photovoltaïques. Dans les 10 années à venir, ces projets devraient considérablement se développer, en raison de la baisse croissante des prix des panneaux photovoltaïques. Mais à part les grands donneurs d’ordres, le sujet est très peu rependu et reste une exception.

L’arrivée de solutions de stockage suffisamment puissantes pourrait-elle faire évoluer la question ?
J.-M. M. –
Pour les petits datacenters alimentés aux énergies renouvelables, le stockage pourrait être un vrai atout. Mais quoi qu’il en soit, les datacenters, en raison du besoin en continuité de service, seront toujours branchés au réseau électrique. Le stockage est intéressant, mais extrêmement couteux et pour l’instant peu écologique. Mais des mesures informatiques peuvent être prises pour gérer au mieux les datacenters alimentés aux énergies renouvelables : certaines actions, certains calculs notamment, peuvent être effectués la journée quand le soleil est présent et que les panneaux produisent de l’électricité. Cela permettrait de libérer de la charge pour la nuit, quand les panneaux ne produisent rien.

Le refroidissement est aujourd’hui l’un des principaux postes de consommation d’énergie dans les datacenters. Les datacenters qui sortent de terre aujourd’hui sont certes plus performants, mais qu’en est-il de la rénovation des datacenters anciens et énergivores, qui constituent la majeure partie du parc actuel ?
J.-M. M. –
La gestion thermique des grands datacenters est une question très sensible. Les grands datacenters atteignent des PUE intéressants (jusqu’à 1,07) et dans ce cas, la majeure partie de la consommation énergétique se fait au niveau des serveurs et non des systèmes de refroidissement. Pour les petits datacenters, le matériel installé est souvent hétérogène et évolue au fil du temps. L’installation n’est donc le plus souvent pas optimisée. Une des manières de rénover ces datacenters est de reprendre à zéro l’infrastructure et de mettre en place des allées chaudes et froides et des caissons étanches pour isoler les serveurs. Un projet de ce type est à l’étude à l’IMT. Si l’on ne part pas de zéro, l’air froid se mélange à l’air chaud et l’on observe souvent un surdimensionnement des systèmes de refroidissement. Dans ce cas, le PUE peut atteindre des valeurs de 2 à 3, voire davantage.

L’optimisation des usages et l’utilisation des machines ne peuvent-ils pas également être source de gains en efficacité énergétique ?
J.-M. M. –
Pour ce qui est des machines, ma conviction est qu’il est essentiel d’être capables de faire fonctionner les serveurs à chaud (35°C au lieu de 25°C actuellement). Certains exploitants proposent ces solutions, mais les administrateurs n’ont qu’une seule peur : que les machines tombent en panne à cause de la chaleur. De plus, les serveurs sont souvent peu sollicités, alors qu’il existe des solutions de veille. Il faut donc prévoir et intégrer des modes d’endormissement, comme c’est le cas pour les ordinateurs portables par exemple. Ces solutions existent, mais encore une fois, présentent un risque que les administrateurs ne sont pas prêts à courir. L’objectif est donc d’assurer aux gestionnaires le fonctionnement et la fiabilité de ces solutions, en faisant de la pédagogie.

La chaleur fatale des datacenters peut-elle réellement être récupérée et de quelle manière ?
J.-M. M. – Récupérer la chaleur des datacenters est un sujet intéressant, car ces équipements sont de véritables radiateurs. Si l’on veut récupérer la chaleur fatale, il faut utiliser des outils adaptés. Au lieu d’utiliser l’air pour transporter la chaleur, il faut développer des solutions par circuits liquides (eau, huile…). Il y a plusieurs approches possibles pour traiter cette question et plusieurs applications pour utiliser cette chaleur, comme les bureaux ou les piscines, mais ces projets sont encore à l’étude. Mon sentiment est qu’il faut réfléchir à des solutions de cogénération : comme pour les chaudières de particuliers, il est possible de réfléchir à des solutions permettant de récupérer, sous forme d’électricité, la chaleur des serveurs, qui servira à faire fonctionner les serveurs par la suite. Ce système n’est pas très efficace énergétiquement, mais permet d’éviter des pertes.

Les nouveaux outils comme les solutions DCIM permettent-ils d’améliorer l’efficacité énergétique des datacenters. Pouvez-vous nous en dire davantage sur ces outils ?
J.-M. M. –
Les solutions DCIM intègrent beaucoup de notions différentes. Tout d’abord, elles permettent, par le biais de simulations, de dimensionner les équipements et de les positionner de manière à optimiser leur fonctionnement. De manière générale, les exploitants préfèrent surdimensionner leur installation de manière à éviter la panne et l’encombrement. Les outils de simulations permettent donc principalement de rassurer les exploitants. Les solutions DCIM intègrent également des outils de reporting pour faire remonter certaines informations, ainsi que des outils d’efficacité. Ces derniers sont de deux types : certains agissent, sur l’allumage, l’arrêt ou encore la gestion des équipements (ex : DPM de VM Ware), et d’autres analysent et délivrent des données de préconisation, tout en laissant la main à l’exploitant (ex : DC Scope de EasyVirt ou VROPS de VM Ware).

Les indicateurs, les écolabels et les codes de conduite sont-ils la voie à suivre pour inciter les exploitants à améliorer l’efficacité énergétique de leurs sites ?
J.-M. M. –
Ces éléments sont indispensables. Il faut aider les exploitants à comprendre comment agir sur leur installation et il n’y a pas de meilleur moyen que de leur fournir des rapports détaillés pour les guider. En 2010, très peu de serveurs étaient équipés de Wattmètres, pourtant essentiels pour comprendre les consommations et aujourd’hui, ils en sont équipés pour la grande majorité. Cette sensibilisation est donc essentielle et un autre point central est de fixer des objectifs, qu’il est possible de suivre grâce à des indicateurs comme le PUE (souvent critiqué mais simple a définir). Il faut donc des indicateurs objectifs et chiffrés, qui permettent de mesurer concrètement les progrès réalisés. Pour aller plus loin, il faudrait également légiférer sur le sujet, ce qui devrait arriver dans les prochaines années.

Parmi les acteurs du datacenter, combien de bons élèves et de sociétés qui font du Greenwashing ?
J.-M. M. –
Pour répondre à cette question il faudrait une mesure précise. Ce qui est certain, c’est que le greenwashing était répandu entre 2010 et 2015 et que la tendance s’estompe aujourd’hui, car tout résultat doit pouvoir être justifié. La législation pourrait aider et l’affichage du PUE des datacenters en temps réel pourrait être une idée.

Pensez-vous aujourd’hui que le Cloud est vraiment plus Green ? J.-M. M. – C’est une question délicate. Sur le principe, le Cloud computing consiste à mutualiser les moyens et la mutualisation, comme c’est le cas pour l’autopartage par exemple, est plus Green. En revanche, les calculs, s’ils avaient été effectués en local plutôt qu’en déporté, auraient, pour certaines applications, certainement moins consommé. Dans les faits, il est difficile de répondre, car cette question fait appel à de nombreux éléments très variables.

Quels sont les sujets de recherche actuels pour tendre vers le Green IT ?
J.-M. M. –
Nous pouvons tout d’abord citer les sujets liés aux réseaux : ces derniers doivent gagner en rapidité et diminuer en consommations énergétiques. Pour cela, le développement de la fibre optique est une option prometteuse, bien moins consommatrice et plus rapide que le cuivre. Il y a aussi les questions liées aux serveurs eux-mêmes et le développement de technologies plus efficaces. Le refroidissement, que nous avons abordé précédemment, concentre une grande partie de l’attention. Le management, avec l’allumage et l’extinction automatique des serveurs. L’éco-conception logicielle, en favorisant les bonnes pratiques et les bons outils de mesure. Les éco-labels et de l’affichage énergétique des équipements, comme c’est le cas pour l’électroménager. Et enfin, un autre levier, peu abordé, est celui du cycle de vie des équipements. Il est essentiel de pouvoir prolonger les durées de vie des équipements, et de s’intéresser à leur construction et à leur recyclage.

Propos recueillis par Alexandre Arène

Laisser un commentaire

Laissez un commentaire en remplissant les champs ci-contre ou utilisez votre compte