Pour gérer vos consentements :

Cop21 : comment limiter l’appétit en énergie de l’IT ?

En 2013, une étude dirigée par Mark P. Mills, fondateur et CEO du cabinet Digital Power Group spécialisé dans les questions énergétiques, estimait à 1 500 TWh (1 500 milliards de kWh) la consommation électrique mondiale venant de l’IT (technologies de l’information et de la communication). Près de 10% de la consommation énergétique mondiale et déjà plus de 50% de celle de l’industrie de l’aviation. Un phénomène en partie imputable aux datacenters qui fleurissent pour opérer les services IT dont le grand public est friand.

De gauche à droite : Pascal Lecoq, HP France, Nicolas Frapard, HGST, José Diz, animateur du Club de la presse informatique B2B, Mokrane Lamari, Equinix, et Édouard Ly, Oxalide.

Un taux qui n’a pu que progresser depuis puisque « la croissance de la consommation des datacenters est liée à la croissance exponentielle des utilisateurs », remarque Edouard Ly. Le responsable marketing et communication de l’infogéreur Oxalide intervenait dans le cadre d’une table ronde sur l’efficience énergétique organisée par le Club de la presse B2B et animée par José Diz (par ailleurs contributeur de Silicon.fr). Un sujet qui tombe à point nommé à l’heure où se prépare la Cop21, conférence sur le changement climatique se tiendra à Paris du 30 novembre au 11 décembre prochains. « La croissance exponentielle [des besoins en énergie] est liée aux cas d’usage et non au nombre d’utilisateurs, nuance Pascal Lecocq, directeur des services Datacenter chez HP France. Faut-il blâmer les datacenters, les utilisateurs ou les entreprises qui génèrent de nouveaux besoins chez les utilisateurs ? » Et de citer l’exemple de l’Internet des objets (IoT), qui compte aujourd’hui 12 à 15 milliards d’objets connectés alors qu’on en attend 100 milliards (selon certaines études) à l’aube des années 2020. « Un volume multiplié par 10 », fait-il remarquer.

Une croissance dont l’industrie des centres de calcul tente de limiter les répercussions énergétiques, à l’aide d’innovations matérielles et logicielles. Des progrès palpables ces dernières années grâce à l’amélioration des composants. Nicolas Frapart, directeur des ventes EMEA chez HGST (Hitachi Global Storage Technologies), fournit l’exemple des disques durs maison qui enferment de l’Hélium. Ce gaz, sept fois moins résistant que l’air, limite ainsi la consommation propre au fonctionnement des moteurs des plateaux et têtes de lectures (2 W contre 7,1 W) tout en augmentant la densité de plateaux dans un même espace (7 unités contre 5 auparavant). Résultat, « pour une même capacité de stockage, on a divisé par trois la consommation et par 2,5 le volume des racks », assure le dirigeant. Une optimisation capitale alors que les besoins en stockage croissent plus vite que ceux en puissance de calcul. « 90% du trafic Internet et des transactions est généré par le stockage », dit Pascal Lecocq.

La clef ? L’efficience énergétique

Le fonctionnement en lui-même des machines est aujourd’hui mieux pensé. « Il y a 10 ans, même inutilisé, un serveur fonctionnait en permanence à 70% de sa puissance plaque (puissance maximale, NDLR), rappelle Pascal Lecocq. Aujourd’hui, avec la vitesse variable des ventilateurs, la désallocation des ressources, etc., on tombe à moins de 30%. Mais les gains obtenus sont gommés par la hausse du nombre de serveurs. » Tout l’enjeu de l’industrie est là : il s’agit d’éviter que l’explosion des besoins et des usages ne se traduise par une hausse de la consommation d’énergie.

« Les composants ont fait un bon extraordinaire en efficacité depuis l’arrivée de la mobilité, depuis le premier iPhone, ajoute de son côté Edouard Ly, avec des gains en efficience énergétique et de calcul au niveau du processeur. » Les composants à base d’architecture ARM, notamment, viennent bousculer le pré-carré d’Intel jusque dans les offres desktop et serveur. Nombre d’acteurs, comme Qualcomm, tentent de s’engouffrer dans cette brèche. L’équation ‘moins de consommation pour plus de capacité de calcul’ séduit inévitablement. Chez Oxalide, « le choix du composant se fait en fonction des usages et il est monté en usine ou chez notre constructeur », indique le porte-parole de l’infogéreur.

« Pour optimiser, il faut connaître les usages », confirme Mokrane Lamari, responsable avant-vente chez Equinix. Pour cela, l’hébergeur s’appuie sur des outils de mesures à base de capteurs disséminés sur les installations informatiques et dans le bâtiment, capteurs qui apportent une analyse assez fine de la consommation. « On accède aux données de consommation des serveurs », lesquelles sont reportées au client, au besoin. « Il faut éviter les serveurs fantômes. Le premier réflexe du DSI est de détecter les serveurs inutiles », affirme Mokrane Lamari.

Amélioration du PUE

La virtualisation a aussi son rôle à jouer. « On considère que 35% des ressources sont réellement utilisées à un instant T, rappelle Pascal Lecocq. La virtualisation permet d’optimiser les ressources physiques par rapport aux usages via une allocation dynamique des ressources. » Par exemple, un site de e-commerce n’aura, la nuit, besoin que de deux serveurs au lieu des 40 machines nécessaires à son fonctionnement en journée quand affluent les consultations et commandes. Quant aux couches logicielles nécessaires à la virtualisation (serveur, stockage, réseau), leur besoin en énergie « est relativement modique », assure le représentant de HP. La virtualisation des couches réseaux permettra aussi à l’avenir d’allouer dynamiquement des ressources selon l’emplacement géographique des datacenters afin d’éviter les plages horaires où apparaissent des pics de consommation d’électricité,et où cette dernière voit ses prix augmenter (bien que se posera alors la question de la problématique du déplacement des données selon leur nature).

Autant d’optimisations qui semblent porter leurs fruits puisque le PUE (Power Usage Effectiveness ou indicateur d’efficacité énergétique calculé à partir du ratio de l’énergie consommée globalement par le datacenter par rapport aux besoins purement informatiques) « est aujourd’hui de 1,6 contre 2 à 2,5 il y a quelques années, déclare Nicolas Frapart, directeur des ventes EMEA chez HGST. Les datacenters les plus efficaces tournent autour de 1,1 ou 1,2. Google atteint ainsi 1,2. ».

Mais le PUE ne constitue plus un indicateur suffisamment fiable et complet. Il n’indique notamment ni les émissions de CO2 (aux Etats-Unis, l’alimentation primaire de certains datacenters est assurée par des générateurs au fioul, qui produisent une énergie moins chère que l’électricité disponible sur place, selon Pascal Lecocq), ni les capacités du datacenter à utiliser des énergies renouvelables ou à produire à son tour de l’énergie par récupération de la chaleur émise. C’est pourquoi l’Europe veut mettre en place un nouvel outil, le DCEM (Datacenter Energie Management). Un outil que les hébergeurs n’ont pas attendu pour s’organiser. « Nous avons passé un contrat de fourniture de 105 MW en énergies renouvelables aux Etats-Unis, témoigne Mokrame Lamari, d’Equinix. Il y a une vraie réflexion aujourd’hui pour une énergie plus propre. Il est primordial de s’adapter à l’environnement et d’en tirer les ressources locales. »

Moins de datacenters, mais plus gros

« C’est la logique économique plus que la réglementation qui va permettre d’obtenir des résultats, estime pour sa part Nicolas Frapart (HGST). Les entreprises ont besoin de réduire leur facture énergétique pour rester compétitive. » D’autant que les clients ne regardent plus seulement le coût du service à l’achat, mais aussi celui de son exploitation totale sur 5 ans. Car « on passe d’un modèle sur site à des solutions hébergées dans des datacenters ou à des services managés hébergés, justifie Pascal Lecocq. Il faut prendre en compte la partie IT avec l’hébergement dans un modèle as-a-service, plus la consommation électrique globale. Le coût du matériel ne compte que pour 25% du coût de l’offre. » Un paramètre à prendre d’autant plus en compte que « le DSI ne maîtrise pas complètement la croissance de l’entreprise, remarque Mokrame Lamari. La flexibilité constitue la vraie demande. »

Dans cette logique économique, il convient alors de se demander comment exploiter moins de serveurs à service équivalent. Car « le développeur ignore sur quelle machine va tourner son application et considère la ressource comme infinie puisqu’il suffit de déplacer la ressource applicative sur le serveur », note Edouard Ly. Pour gérer cette mauvaise habitude consistant à ajouter un serveur dès que les besoins s’en font sentir, Oxalide a donc mis en place des processus de monitoring pour rendre plus efficiente la machine à travers l’optimisation de l’application. Un processus qui permettrait de multiplier par 10 l’efficience énergétique. Un paradoxe pour un hébergeur dont le modèle économique s’appuie notamment sur la vente de serveurs. « On vend de la ressource homme/développeur et moins de la machine », justifie Edouard Ly.

Comme l’optimisation, la concentration des ressources pourrait donc constituer une réponse à la maîtrise de la consommation. « Il y aura moins de datacenter, mais plus gros, estime Mokrame Lamari. L’IT de demain reposera sur l’infrastructure hybride avec des applications critiques sur serveurs en propre et des interconnexions au Cloud public d’Amazon, Azure, etc. Ce qui est seulement possible dans un schéma ‘hyperscale’. » Une vision que tous les intervenants ne partagent pas nécessairement. « Quid de l’IoT ?, s’interroge Nicolas Frapart en évoquant des besoins métier précis. Comment les applications industrielles vont influencer le marché ? Va-t-on avoir des micro datacenter ? » Micro ou macro, le déploiement des datacenters va se poursuivre. Et seule une problématique de limitation de l’accès à l’énergie pourrait y mettre un frein.


Lire également :

Vers un datacenter plus petit, éco-responsable et efficient en 2025
Google optimise le PUE de ses datacenters avec du machine learning
Facebook construit son deuxième datacenter 100% vert

Crédit photo : © Robert Scoble – CC BY 2.0

Recent Posts

Des serveurs IA cyberattaqués : le vecteur s’appelle Ray

Un éditeur attire l'attention sur des attaques exploitant l'absence d'autorisation dans une API du framework…

3 heures ago

Amazon débloque la deuxième tranche de son investissement dans Anthropic

Après un premier financement en septembre 2023, Amazon a débloquer le reste de l'enveloppe qu'il…

5 heures ago

Les logiciels libres entrés au SILL au premier trimestre 2024

D'Alpine Linux à XPipe, voic les dernières entrées au SILL (Socle interministériel de logiciels libres).

22 heures ago

Quelques chiffres pour contextualiser le premier livrable du comité de l’IA générative

Le comité de l'IA générative établi en septembre 2023 par le Gouvernement a formulé ses…

23 heures ago

Le DMA, cette entreprise de microgestion des Big Tech

L'UE multiplie les enquêtes et les procédures de non-conformité contre des entreprises soumises au DMA.

1 jour ago

Docaposte se pose en centrale cyber pour les PME

Forum InCyber 2024 - Docaposte fédère les offres d'une douzaine d'acteurs français en un Pack…

2 jours ago