Philippe Diez – Schneider Electric : « le data center est un élément fondamental de l’économie numérique »

Entretien avec Philippe Diez, Vice-Président de Schneider Electric, en charge des activités « IT solutions » et Data center en Europe (notamment France, Royaume-Uni, Allemagne, Italie, Hollande).

Pourquoi installer des data centers dans notre pays ?

Philippe Diez: Les data centers devraient effectivement être mieux pris en considération en France. Nous avons trop souvent tendance à résumer le numérique aux applications fondées sur de la fibre optique. Or, il est important que l’on ait des data centers en France, pas uniquement pour une raison de souveraineté des données, c’est-à-dire que les données soient stockées en France, mais aussi pour créer un écosystème qui va permettre à des start-ups de créer des solutions et des applications. Des bassins numériques se développent : comme autour des gares au moment de la Révolution industrielle, l’activité économique se structure autour des nœuds du réseau. Par exemple, en 2012, nous avons conçu et installé le data center Neoclyde à Besançon, qui a constitué un des éléments importants dans le développement de l’écosystème de start-ups locales. Pour développer les services de la smart city, il faudra des plateformes et un environnement performant et sécurisé. Le fait que les data centers soient à proximité est fondamental. Les data centers sont donc générateurs d’emplois indirects. Les métiers relevant du « big data » vont se développer dans des écosystèmes numériques. Toute la chaîne numérique est tirée par le data center.

Quelles sont donc les perspectives du data center en France ?

Dans notre pays, la tendance la plus importante est le développement du cloud. Elle a porté la construction de data centers à un rythme relativement soutenu dans les années 2011-2012. En 2013, cette dynamique s’est un peu essoufflée, mais il est aujourd’hui possible de rentrer dans un nouveau cycle positif d’investissements tirés par le cloud, si les bonnes décisions sont prises.

Quelles seraient ces décisions ?

Au moment de la campagne présidentielle de 2012, nous avons édité la brochure « France for data center », un manifeste en faveur du data center, en partenariat avec le Gimélec et le Cesit. Actuellement, nous intervenons dans les groupes de travail des « 34 plans de reconquête pour la nouvelle France industrielle », initiés par le ministère du redressement productif ; nous apportons notamment notre contribution au groupe de travail dédié au « cloud ».

L’enjeu majeur pour la France est d’intégrer le fait que le data center est un élément fondamental de l’économie numérique. Il faut renforcer l’attractivité de la France au niveau des data centers, de faciliter le passage des entreprises au « cloud ».

Premier levier, les grands donneurs d’ordre devraient être exemplaires. Par exemple, les collectivités territoriales auraient intérêt à développer un cloud privé mutualisé, plutôt que de financer de petites salles informatiques. Cette mutualisation offrirait une meilleure équation économique en réduisant la consommation énergétique, car la concentration dans de grands data centers consomme moins que l’éparpillement des serveurs. Un tel dispositif existe déjà au Royaume-Uni (le dispositif « G-cloud »).

Mais les collectivités publiques peuvent aussi offrir des services aux citoyens par le biais d’un cloud privé hébergé dans des data centers de l’Etat ou bénéficiant d’une sécurité très forte. Ainsi, en France, les initiatives Cloudwatt ou Numergy sont des clouds sécurisés qui incluent des plateformes applicatives dédiées. Elles permettent aux éditeurs de logiciels d’incuber de nouvelles applications dans un domaine sécurisé : transfert et partage de fichiers, comptabilité, etc. Ces initiatives pourraient être étendues.

Enfin, le 3e élément est l’attractivité fiscale de la France. Notre pays dispose de nombreux atouts pour attirer les data centers : des prix de l’énergie bas et un déploiement télécom de qualité dans les grandes métropoles. Mais en dehors des grandes villes, la fibre et la 4G sont encore insuffisamment déployés. Surtout, l’environnement fiscal reste peu lisible, ce qui rend la France peu compétitive aux yeux des investisseurs étrangers par rapport au Luxembourg ou à la Hollande. Il n’existe pas de dispositif fiscal incitatif pour les investissements dans l’immobilier numérique. En comparaison, le Luxembourg se positionne comme un « safe harbor » des données, un lieu dédié au stockage et à l’hébergement de qualité pour les données.

Que répondez-vous à ceux qui sont réticents à l’égard des data centers ?

On peut toujours imaginer que les besoins en informatique vont rester stables, mais ce ne sera pas le cas : dans les années à venir, on ne maîtrisera pas la croissance des besoins informatiques. Par ailleurs, les collectivités locales, dans le cadre de toute la tendance de la « smart city », vont avoir besoin de capacités de calcul et de stockage des données, si elles veulent mieux gérer leur trafic, leur éclairage urbain, et si elles veulent proposer des services aux administrés.

A partir de ce constat, le fait de centraliser l’informatique dans des locaux adaptés est moins consommateur d’énergie que dans des locaux moins adaptés. Avec les technologies de « free-cooling » (refroidissement à l’air extérieur), qui fonctionne bien à partir de 500 m2, on peut avoir des pertes relativement faibles.

En moyenne, un data center a un indicateur d’efficacité énergétique de 2 (on l’appelle le « Power Usage Effectiveness », c’est-à-dire le ratio entre l’énergie consommée par le data center et celle qui est consommée par les systèmes informatiques (serveurs, réseaux…). L’indicateur donne une idée de l’énergie dépensée par la climatisation de ces systèmes. Avec la méthode du « free-cooling », le PUE passe de 2 à 1,1 ou 1,2. Pour le dire autrement, 20 à 25% des coûts d’exploitation (opex) sont liées à la gestion de l’énergie, notamment la climatisation. On peut ramener leur part à 10%.

Quels sont les autres grands champs d’innovation, en dehors du free-cooling, au regard de ce thème de l’efficacité énergétique et de la maîtrise des coûts ?

L’une des principales innovations a trait aux logiciels de pilotage des data center, que l’on appelle « data center infrastructure management » (DCIM). Les opérateurs de data centers ont commencé à gérer leurs équipements avec les tableurs bureautiques traditionnels, pour suivre leur consommation de câbles, de serveurs, etc. Mais ils ont rapidement atteint les limites de ce que ces systèmes peuvent faire. De plus en plus, il y a un besoin de systèmes experts capables de mieux gérer l’ensemble des actifs et de disposer de capacités de prédictibilité en fonction de la puissance électrique et du niveau de chaleur généré. Un logiciel de gestion intégrée du data center permet de mieux piloter l’ensemble, dans une démarche de prédictibilité et de pilotage intelligent. Concrètement, ces outils permettent de générer des économies d’énergie. Mais ils permettent surtout un gain d’espace. Une bonne gestion de l’espace permet bien souvent d’éviter des extensions du data center. Il existe en effet souvent des serveurs dormants dans un data center. Le DCIM permet de les détecter. Le gain dépend du point de départ du data center, de son PUE avant installation du DCIM. Nous entrons dans un stade de maturité sur ce type d’innovation. Les ventes croissent significativement à double chiffre depuis deux-trois ans. Il est désormais très rare d’ouvrir un data center sans ce logiciel attaché.

Autre innovation dans l’efficacité énergétique : la mesure de la consommation au rack prêt, afin de donner la visibilité la plus précise au client. A l’échelle du rack et du serveur. C’est un grand sujet d’innovation. Les investissements deviennent ainsi de plus en plus lissés. On adapte la croissance de l’investissement avec la croissance de la demande. C’est un thème évident en informatique (nombre croissant de serveurs, racks croissants dans les salles blanches). On peut aujourd’hui le faire, en installant des modules qui s’achètent en fonction du besoin de la salle en moyens électriques et informatiques. Récemment, la société CFI dans la banlieue lyonnaise a installé un bel exemple d’architecture modulaire. L’espace peut accueillir environ 30 éléments, mais la salle fonctionne aujourd’hui avec 3, soit 1/10e de l’investissement. Quand la demande va croître, la société pourra acheter progressivement davantage de dispositifs de refroidissement. C’est un thème particulièrement intéressant dans un monde où l’on achète de plus en plus « as a service ».

Vous mettez l’accent sur la mutualisation et une certaine forme de centralisation des data centers. Cela a-t-il des conséquences sur la structuration et l’aménagement des territoires ?

Il n’y a pas un seul modèle. Le monde est segmenté. On peut imaginer des pôles spécialisés de taille conséquente, mais aussi des data centers plus petits répartis sur le territoire. Il y a un arbitrage à faire entre l’efficacité énergétique et la nécessaire proximité physique de l’informatique. Cette proximité est nécessaire  en raison de problématiques techniques de bande passante. Par exemple, dans les hôpitaux et les CHU de grandes villes qui veulent faire de la télémédecine, il est nécessaire de disposer de data centers solides et rapides à proximité pour manipuler, stocker et transmettre des images « lourdes » et complexes.

Vous avez évoqué votre implication dans les 34 projets impulsés par le Ministère du redressement productif. Quelles premières impressions ressortent de ces groupes de travail ?

Il est trop tôt pour en parler : les ateliers ont été lancés en octobre-novembre. Des propositions vont être faites. Elles sont en cours d’élaboration et vont être présentées en février-mars. On en parlera plutôt au deuxième trimestre.

J’en attends des pistes pour aider les entreprises françaises à démarcher davantage à l’étranger. Dans le Nord de la Suède, il existe tout un écosystème composé de sociétés de génie civil locales et de sociétés informatiques. Ces écosystèmes, entraînés par des acteurs publics, vont démarcher les géants du numérique comme Facebook, Amazon ou Google afin de les convaincre d’investir chez eux. Or, la France n’a pas à rougir en termes de potentiel. Encore une fois, l’énergie est à des prix similaires. En termes de climat, nos températures plus douces ne sont pas un handicap. Les technologies de « free-cooling », comme on en a installé par exemple à Lyon ou Besançon, fonctionnent à 95% du temps en France, contre 96% en Suède. Nous devons nous appuyer sur cette situation pour mettre en avant l’un de nos atouts principaux, notre position stratégique au centre de l’Europe.

Enfin, encore une fois, l’Etat et les collectivités territoriales doivent user de leur capacité d’entraînement. La France ne dispose pas de grands constructeurs de data centers, capables de développer la filière et les opérateurs télécoms ne peuvent pas tout faire.

Le thème de la sécurité et la cybersécurité a pris une importance croissante dans les dernières années, comme l’ont montré plusieurs événements médiatiques ou le développement de structures comme l’ANSSI. Que pouvez-vous en dire ?

L’enjeu de cybersouveraineté justifie de faire des data centers en France. Nous devons déployer des capacités de stockage sur notre territoire.

Mais le monde du data center doit aussi parvenir à normer le niveau de sécurité avec des labellisations de 1 à 5 étoiles, comme il y a dans la sécurité (tiers 1 – tiers 4). Aujourd’hui, c’est le manque de transparence qui inquiète. Il faudrait aussi mettre en place un organisme extérieur capable de certifier. Enfin, les data centers nécessitent des technologies de cryptage, comme celles déployées par des acteurs comme Thales.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *