Le 'datacenter' sature : mauvaise passe ou problème réel ?

Beaucoup de responsables de centres informatiques se plaignent : leur centre est saturé de machines trop gourmandes en électricité et la climatisation est à bout de souffle

Toute la question est de savoir si ce problème de saturation est conjoncturel ou s’il correspond vraiment à une tendance de fond.

A l’occasion des salons ITI Forums, réunissant, ces 16 et 17 juin à Paris, des clubs utilisateurs très versés dans de domaine (**), voici ce que l’on peut percevoir:

Problème passager conjoncturel ?

Depuis la fin des années 90, la tendance « une application = n serveurs » a régné sans partage. Souple à mettre en œuvre par les équipes « Etudes » ce type d’architecture a multiplié le nombre de petits serveurs x-86 dans les salles machines. Beaucoup de centres se retrouvent avec une multitude de ces serveurs qui se comptent en milliers, voire dizaines de milliers. Récemment, un responsable citait l’exemple d’une application qui nécessitait à elle seule quarante serveurs sur deux sites.

Chacun de ces serveurs pris individuellement est doté de tout ce qu’il faut : CPU, mémoire, disque et cartes réseaux, mais aussi transformateur, redresseur de courant, ventilateurs divers et autre pièces annexes qui vont consommer à elles seules de l’ordre de 45% du courant absorbé.

Ces serveurs achetés il y a trois ou quatre ans consomment couramment 500 à 700 Watts pièce.

Autre phénomène intéressant : ces serveurs sont rarement très chargés et, comme ils sont dédiés, ils ne peuvent pas faire autre chose quand ils n’ont rien à faire. Malheureusement leur consommation électrique est quasiment la même qu’ils travaillent ou qu’ils soient libres. Des kilo-watts sont donc dépensés à ne rien faire. Or, il faut en dépenser d’autres pour évacuer la chaleur ainsi produite !

Si telle est la situation au centre, alors oui ! On peut parler de problème passager. Duquesne Research estime que deux grandes tendances actuelles vont aider à sa résolution :

1 – La baisse de la consommation électrique par unité de puissance : c’est une tendance générale de l’informatique qui n’a pas cessé de progresser : les nouveaux serveurs x-86 sont plus puissants (en traitements) et consomment moins en kW. Au passage, ils sont aussi beaucoup plus compacts. Ils ont aussi acquis une caractéristique très intéressante : quand ils n’ont rien à faire, ils consomment beaucoup moins. La solution théorique au problème de saturation est alors de remplacer toute machine ayant plus de trois ans. Les nouvelles machines consomment moins et mieux. Cela a un coût bien évidemment, mais le gain est réel.

2. La mutualisation des éléments gourmands : certains éléments sont pénalisants en consommation : 1.000 serveurs traditionnels, cela veut dire 1.000 ventilateurs, 1.000 alimentations électriques, 1.000 batteries dans certains cas, etc. et si l’on veut la redondance, il faut doubler ces chiffres ! Clairement ces machines n’ont pas été conçues pour être utilisées en grandes quantités, il faut optimiser et passer à une mutualisation des moyens dispendieux en énergie. C’est pour cela que des formats comme les lames sont apparus : c’est avant tout un système de mutualisation d’éléments matériels. Le nombre de ventilateurs, transformateurs etc . par serveur lame est inférieur à 1. Et la redondance reste possible. La mutualisation la plus extrême de nos jours est le conteneur dont le plus gros intérêt est probablement de partager entre un grand nombre de serveurs des éléments gourmands en énergie mais optimisés.

Des pistes à explorer

Deux pistes sont clairement à explorer : rénover le parc et penser optimisation matérielle via les châssis lames, les racks optimisés ou le conteneur. Ce n’est qu’après avoir étudié ces actions que l’on constatera sur une partie du parc deux phénomènes très différents que Duquesne Research souligne:

1. La consommation totale baisse beaucoup, mais le besoin en surface baisse plus encore : la consommation au mètre-carré (m²) augmente : le fameux kW/m² passe de 0,8 à 2, voire 5. Il faut réaménager le ‘datacenter’. Le gain en kW et en m² se ‘paie’ par une hausse de densité.

2. Il n’est pas raisonnable de remplacer les serveurs un pour un : le nouveau serveur est souvent deux à cinq fois plus puissant que celui qu’il remplace et qui n’était chargé qu’à 15% ! Il faut donc mettre ‘plusieurs serveurs sur un‘ : c’est pour cela que l’on va introduire la virtualisation qui moyennant une surconsommation d’overhead (de 15% ?) pourra aider à consolider.

Ainsi, seul un hypothétique data center totalement rempli en haute densité de serveurs lames avec virtualisation pourrait se plaindre de n’avoir aucune solution et donc d’être confronté à un vrai problème. Dans la réalité, nous en sommes loin.

Pour tous les autres, certaines solutions sont à envisager. La difficulté étant que certaines de ces solutions vont impliquer des services très différents dans l’entreprise (services généraux, production IT, études) et dans ces temps de crise cela n’est pas facile, même si le ROI est court, il a la désagréable caractéristique d’être éclaté entre plusieurs décideurs… mais c’est une autre histoire.

___

(*) Consultant,Duquesne Research, Paris

(**) CRIP, CESIT, CCA, CR2PA…https://www.itiforums.com