Pour gérer vos consentements :
Categories: Réseaux

Les data centres au défi de la haute densité

Les nuages noirs s’accumulent à l’horizon des responsables de ‘data centers’. Les coûts de construction s’envolent, de même que les coûts d’accès EDF. « La France, explique Fabrice Coquio, dg de l’hébergeur Interxion France, ne pourra pas échapper indéfiniment à une augmentation de 40 % du prix de son électricité. » Il faudra également prévoir plus d’onduleurs, car l’arrivée de la concurrence dans la distribution d’énergie aura immanquablement pour effet de diminuer les qualités de stabilité du courant.

Les serveurs lames et la virtualisation se généralisent, mais réclament toujours plus de puissance électrique au m2 et toujours plus de puissance de refroidissement. « La loi de Moore continue de se vérifier tous les 18 mois pour les capacités de calcul des processeurs, observe Frédéric Charron, expert en gestion d’exploitation de ‘data centers’, mais pas du tout pour le reste. » Ni pour les systèmes de stockage, ni pour la connectique réseau, ni pour la climatisation, ni pour la distribution électrique… Résultat : les tendances d’évolution divergent et s’inversent. Il faut désormais réserver plus de la moitié du bâtiment à l’infrastructure technique. De plus, le coût de refroidissement dépasse maintenant celui de la production informatique proprement dite.

Les anciens modes de gouvernance ne résistent pas à la complexité croissante des problèmes. « Les data centers,estime Pierre Navarre, directeur technique d’ETDE, filiale du Groupe Bouygues. ne peuvent plus être conçus par un acteur tout seul dans son coin. Leur ingénierie doit imbriquer d’emblée tous les métiers. »

Un point de vue que partage Paul François Cattier, vice-président d’APC France : « Cessons de fonctionner en silo,lance-t-il. Il faut agir dans l’interdépendance. Aucun gain dans l’efficacité énergétique ne sera superflu. »

Le ‘data center’ haute densité tiendra donc entre 500 et 1.000 m2. Il sera en rez-de chaussée et prendra en compte toutes les contraintes, y compris celles acoustiques et environnementales. Il devra donc être modulaire, permettre toute nouvelle installation sans perturber ce qui est déjà en place. Mais surtout, il n’a pas vocation à être généraliste.

« C’est un non-sens économique,souligne Fabrice Coquio d’Interxion, que de mettre tous les types de machines dans une salle conçue pour la haute densité. » Aussi l’hébergeur neutre s’oriente-t-il en Ile-de-France vers un modèle de data centres en réseau, chaque salle étant dédiée à un niveau de puissance (de 500 à 1.000 W par m2, de 500 à 2.000 W/m2, de 1.000 à 2.500 W/m2 et de 5 à 10 kW m2).

Recent Posts

AWS abandonne WorkDocs, son concurrent de Dropbox

Un temps pressenti pour constituer le socle d'une suite bureautique AWS, Amazon WorkDocs arrivera en…

4 heures ago

Eviden structure une marque de « serveurs IA »

Eviden regroupe cinq familles de serveurs sous la marque BullSequana AI. Et affiche le supercalculateur…

7 heures ago

SSE : l’expérience se simplifie plus que les prix

Le dernier Magic Quadrant du SSE (Secure Service Edge) dénote des tarifications et des modèles…

9 heures ago

IA générative : les lignes directrices de l’ANSSI

Formats de paramètres, méthodes d'apprentissage, mutualisation GPU... Voici quelques-unes des recommandations de l'ANSSI sur l'IA…

1 jour ago

De la marque blanche à l’« exemption souveraine », Broadcom fait des concessions aux fournisseurs cloud

À la grogne des partenaires VMware, Broadcom répond par diverses concessions.

1 jour ago

iPadOS finalement soumis au DMA

iPadOS a une position suffisamment influente pour être soumis au DMA, estime la Commission européenne.

1 jour ago