Bull : des supercalculateurs Bullx B700 DLC, refroidis à l’eau tiède…

N’en déplaise à certains, le refroidissement à eau revient dans les datacenters. Bull annonce des supercalculateurs « multi-pétaflopiques », à base de processeurs Intel Xeon E5 (Sandy Bridge), refroidis à l’eau « courante »…

Les nouvelles « machines de course » annoncées par Bull reposent sur des serveurs lames, à base de Xeon d’Intel. Elles visent les grands centres de calcul. Le constructeur met l’accent sur la puissance -en mégaflops, bien sûr- mais également sur l’efficacité énergétique: car le refroidissement liquide fait son retour – sous de nouvelles formes.

L’une des particularités de cette nouvelle série est, en effet, son système de refroidissement. Les nouveaux Bullx B700  se voient accoler le sigle DLS (Direct liquid cooling). Selon le constructeur, c’est une « révolution« . Ils permettent d’utiliser de l’eau courante ou « eau tiède » pour leur refroidissement, « ce qui améliore la performance énergétique d’environ 40% par rapport aux data centers traditionnels – tout en conservant la même facilité de maintenance que des serveurs standards refroidis par air« .

PUE ou l’efficacité énergétique prime
« Pour augmenter l’efficacité énergétique globale du data center, explique Bull, les équipes R&D ont entièrement repensé les serveurs, « afin que la chaleur générée par les principaux composants soit évacuée par un liquide, au plus près de la source de chaleur. C’est là le principe de refroidissement liquide direct (DLC): le refroidissement s’effectue à l’intérieur de la lame, par contact direct entre les composants chauds (processeurs, mémoires…) et une plaque froide dans laquelle circule un liquide.
Le dispositif permet une « diminution drastique de la consommation électrique« . Bull note que les processeurs fonctionnant à plus de 50°C, la mémoire et les disques SSD à plus de 40°C, la technologie développée par Bull se satisfait d’eau à température ambiante pour assurer le refroidissement. Il n’est donc plus nécessaire de produire de l’eau froide, ce qui assure un gain considérable sur la consommation électrique, et permet d’atteindre un PUE inférieur à 1,1 dans des conditions normales d’utilisation.

Dépasser la limite de puissance de calcul
Bull rappelle, au passage, que la consommation électrique des datacenters – plusieurs MW pour les plus grands – est devenue l’un des principales sinon la principale limite à l’augmentation de la puissance de calcul.
« Dans un data center idéal, l’énergie ne serait consommée que par les serveurs, ce qui se traduirait par un indice PUE très favorable.
Pour rappel, le ratio PUE ou Power Usage Effectiveness est un indicateur d’efficacité énergétique créé par le consortium Green Grid. Il mesure le rapport entre l’énergie consommée par l’ensemble du data center et l’énergie réellement consommée par les serveurs – car le système de refroidissement entre évidemment dans le calcul, conduisant à des taux de 1,8 voire 2 et plus.

Refroidir 80kW par rack…
Grâce à la technologie dite de « porte froide », Bull déclare abaisser le PUE à 1,4 et cela « sans aucune modification des équipements informatiques« . Mais avec la technologie DLC annoncée aujourd’hui, une étape supérieure est franchie dans la réduction de la consommation énergétique: le coefficient PUE est réduit à moins de 1,1 (l’idéal étant 1)

Cette même technologie DLC pouvant refroidir jusqu’à 80kW par rack contre 40kW actuellement, la technologie DLC permettra d’intégrer les prochaines générations de processeurs de calcul multicœurs ultra denses.

L’armoire qui renferme les serveurs contient tous les équipements du circuit de refroidissement interne. Elle se connecte au circuit d’eau courante (à température ambiante). La chaleur est évacuée des lames de calcul grâce à un échangeur de chaleur intégré.
Chaque élément (lames de calcul, châssis, commutateurs embarqués, alimentations électriques) peut être inséré ou retiré sans arrêter le système, « avec la même simplicité qu’un élément refroidi à air, ceci grâce à l’utilisation de connecteurs anti-goutte reposant sur une technologie issue de l’industrie aéronautique.

Bull souligne enfin que cette série fait appel à des composants standards : processeurs, barrettes de mémoire, disques. Pas encore d’indication de prix.

___________________________

Trois sous-ensembles:

La lame de calcul bullx B710 DLC
De largeur double, elle contient 2 nœuds de calcul et accueille 2 x 2 processeurs 8 cœurs Intel Xeon E5 (Sandy Bridge), à 1333 et 1600 MHz. Le futur chipset Intel compatible E5 pourra être doublé. La mémoire (2×8 emplacements DIMM DDR3) peut aller jusqu’à 2 x 256 Go ). Les disques de stockage en 2,5 pouces, sont du type SATA ou SSD ( 2 fois 2 disques). Connexions : double contrôleur Ethernet à 1Gbps et Infiniband.   L’OS proposé: Red Hat Enterprise Linux

Châssis bullx B700 DLC
D’une dimension de 7U (31,1cm x 48,3 cm x 74,5 cm pour un poids maximal de 175 kg), le châssis est constitué d’un tiroir 7U monté en rack pouvant contenir 9 lames doubles, soit 18 nœuds de calcul (donc dans moins d’un demi-mètre cube!)
Le module de gestion inclut un commutateur Ethernet 24 ports de 1Gb/s. Ventilation et refroidissement par 2 ventilateurs à l’avant du châssis, 6 ventilateurs à l’arrière.  Refroidissement liquide à travers des tubulures.
Interconnexion InfiniBand (ISM) : 1 ou 2 commutateurs 36 ports FDR et commutation Ethernet:  de 21 ports de 1Gb/s ; et 22 ports de 10Gb/s
Le module d’alimentation (dédoublé et remplaçable à chaud) consomme 15 KW au maximum.

Armoire bullx DLC
Mesurant 42U (soit 2,02 m x 0,60 x 1,20 m), elle peut accueillir 4 ou 5 châssis (jusqu’à 1331 kg)
La puissance maximale fournie avec les 15 premières alimentations est de 42 KWatts, ou, avec les 27 alimentations, jusqu’à 78 KWatts.