Les nuages noirs s’accumulent à l’horizon des responsables de ‘data centers’. Les coûts de construction s’envolent, de même que les coûts d’accès EDF. « La France, explique Fabrice Coquio, dg de l’hébergeur Interxion France, ne pourra pas échapper indéfiniment à une augmentation de 40 % du prix de son électricité. » Il faudra également prévoir plus d’onduleurs, car l’arrivée de la concurrence dans la distribution d’énergie aura immanquablement pour effet de diminuer les qualités de stabilité du courant.
Les serveurs lames et la virtualisation se généralisent, mais réclament toujours plus de puissance électrique au m2 et toujours plus de puissance de refroidissement. « La loi de Moore continue de se vérifier tous les 18 mois pour les capacités de calcul des processeurs, observe Frédéric Charron, expert en gestion d’exploitation de ‘data centers’, mais pas du tout pour le reste. » Ni pour les systèmes de stockage, ni pour la connectique réseau, ni pour la climatisation, ni pour la distribution électrique… Résultat : les tendances d’évolution divergent et s’inversent. Il faut désormais réserver plus de la moitié du bâtiment à l’infrastructure technique. De plus, le coût de refroidissement dépasse maintenant celui de la production informatique proprement dite.
Les anciens modes de gouvernance ne résistent pas à la complexité croissante des problèmes. « Les data centers,estime Pierre Navarre, directeur technique d’ETDE, filiale du Groupe Bouygues. ne peuvent plus être conçus par un acteur tout seul dans son coin. Leur ingénierie doit imbriquer d’emblée tous les métiers. »
Un point de vue que partage Paul François Cattier, vice-président d’APC France : « Cessons de fonctionner en silo,lance-t-il. Il faut agir dans l’interdépendance. Aucun gain dans l’efficacité énergétique ne sera superflu. »
Le ‘data center’ haute densité tiendra donc entre 500 et 1.000 m2. Il sera en rez-de chaussée et prendra en compte toutes les contraintes, y compris celles acoustiques et environnementales. Il devra donc être modulaire, permettre toute nouvelle installation sans perturber ce qui est déjà en place. Mais surtout, il n’a pas vocation à être généraliste.
« C’est un non-sens économique,souligne Fabrice Coquio d’Interxion, que de mettre tous les types de machines dans une salle conçue pour la haute densité. » Aussi l’hébergeur neutre s’oriente-t-il en Ile-de-France vers un modèle de data centres en réseau, chaque salle étant dédiée à un niveau de puissance (de 500 à 1.000 W par m2, de 500 à 2.000 W/m2, de 1.000 à 2.500 W/m2 et de 5 à 10 kW m2).
Un temps pressenti pour constituer le socle d'une suite bureautique AWS, Amazon WorkDocs arrivera en…
Eviden regroupe cinq familles de serveurs sous la marque BullSequana AI. Et affiche le supercalculateur…
Le dernier Magic Quadrant du SSE (Secure Service Edge) dénote des tarifications et des modèles…
Formats de paramètres, méthodes d'apprentissage, mutualisation GPU... Voici quelques-unes des recommandations de l'ANSSI sur l'IA…
À la grogne des partenaires VMware, Broadcom répond par diverses concessions.
iPadOS a une position suffisamment influente pour être soumis au DMA, estime la Commission européenne.