Pour gérer vos consentements :
Categories: Réseaux

Les data centres au défi de la haute densité

Les nuages noirs s’accumulent à l’horizon des responsables de ‘data centers’. Les coûts de construction s’envolent, de même que les coûts d’accès EDF. « La France, explique Fabrice Coquio, dg de l’hébergeur Interxion France, ne pourra pas échapper indéfiniment à une augmentation de 40 % du prix de son électricité. » Il faudra également prévoir plus d’onduleurs, car l’arrivée de la concurrence dans la distribution d’énergie aura immanquablement pour effet de diminuer les qualités de stabilité du courant.

Les serveurs lames et la virtualisation se généralisent, mais réclament toujours plus de puissance électrique au m2 et toujours plus de puissance de refroidissement. « La loi de Moore continue de se vérifier tous les 18 mois pour les capacités de calcul des processeurs, observe Frédéric Charron, expert en gestion d’exploitation de ‘data centers’, mais pas du tout pour le reste. » Ni pour les systèmes de stockage, ni pour la connectique réseau, ni pour la climatisation, ni pour la distribution électrique… Résultat : les tendances d’évolution divergent et s’inversent. Il faut désormais réserver plus de la moitié du bâtiment à l’infrastructure technique. De plus, le coût de refroidissement dépasse maintenant celui de la production informatique proprement dite.

Les anciens modes de gouvernance ne résistent pas à la complexité croissante des problèmes. « Les data centers,estime Pierre Navarre, directeur technique d’ETDE, filiale du Groupe Bouygues. ne peuvent plus être conçus par un acteur tout seul dans son coin. Leur ingénierie doit imbriquer d’emblée tous les métiers. »

Un point de vue que partage Paul François Cattier, vice-président d’APC France : « Cessons de fonctionner en silo,lance-t-il. Il faut agir dans l’interdépendance. Aucun gain dans l’efficacité énergétique ne sera superflu. »

Le ‘data center’ haute densité tiendra donc entre 500 et 1.000 m2. Il sera en rez-de chaussée et prendra en compte toutes les contraintes, y compris celles acoustiques et environnementales. Il devra donc être modulaire, permettre toute nouvelle installation sans perturber ce qui est déjà en place. Mais surtout, il n’a pas vocation à être généraliste.

« C’est un non-sens économique,souligne Fabrice Coquio d’Interxion, que de mettre tous les types de machines dans une salle conçue pour la haute densité. » Aussi l’hébergeur neutre s’oriente-t-il en Ile-de-France vers un modèle de data centres en réseau, chaque salle étant dédiée à un niveau de puissance (de 500 à 1.000 W par m2, de 500 à 2.000 W/m2, de 1.000 à 2.500 W/m2 et de 5 à 10 kW m2).

Recent Posts

AWS prend ses distances avec VMware version Broadcom

Broadcom a repris seul la main sur la vente de l'offre VMware d'AWS... qui, dans…

22 minutes ago

Avec ZTDNS, Microsoft essuie les plâtres du zero trust appliqué au DNS

Microsoft expérimente, sous la marque ZTDNS, une implémentation des principes zero trust pour le trafic…

3 heures ago

Atos sur la voie d’un sauvetage ? Point de situation

Accord de principe entre créanciers, propositions de reprise, discussions avec l'État... Le point sur le…

5 heures ago

AWS abandonne WorkDocs, son concurrent de Dropbox

Un temps pressenti pour constituer le socle d'une suite bureautique AWS, Amazon WorkDocs arrivera en…

3 jours ago

Eviden structure une marque de « serveurs IA »

Eviden regroupe cinq familles de serveurs sous la marque BullSequana AI. Et affiche le supercalculateur…

3 jours ago

SSE : l’expérience se simplifie plus que les prix

Le dernier Magic Quadrant du SSE (Secure Service Edge) dénote des tarifications et des modèles…

3 jours ago