Orange Silicon Valley pousse un serveur ARM 1U à 23 téraflops

Jetson TK1

En assemblant 60 Jetson TK1 de Nvidia dans un châssis 1U, Orange Silicon Valley et IDT créent le démonstrateur des futurs clusters ARM.

Orange Silicon Valley, filiale américaine du géant français des télécoms Orange, a travaillé de concert avec IDT à la mise au point d’un cluster original… pourvu de composants ARM.

Ce dernier affiche jusqu’à 23 téraflops de puissance de calcul en simple précision par serveur 1U, en regroupant 60 kits Jetson TK1 de Nvidia au sein d’un même boîtier. Pour interconnecter ces cartes, une solution PCI Express à haute vitesse signée IDT est utilisée. Elle offre une bande passante de 16 Gb/s.

Un rapport performance/watt record

En termes de densité, c’est aujourd’hui Dell qui remporte la palme, avec un serveur 1U capable de livrer près de 35 téraflops de puissance de calcul en simple précision, grâce à l’utilisation de quatre cartes Nvidia Tesla K80 (voir notre article « Dell dévoile un serveur 1U taillé pour le HPC »).

Toutefois, la consommation électrique d’une telle machine peut dépasser les 1500 W, alors qu’elle devrait rester aux alentours des 420 W pour un ensemble de 60 cartes Jetson TK1 équipées de ponts de communication IDT.

Au petit jeu de celui qui fournira le plus de puissance par Watt, le couple ARM + GPU l’emporte donc assez largement sur l’offre Intel + GPU.

ARM et GPU : le couple gagnant ?

Orange Silicon Valley n’est pas le premier a avoir tenté l’aventure des clusters ARM. Depuis plusieurs années déjà, le Barcelona Supercomputing Center (BSC) met au point des démonstrateurs de supercalculateurs pourvus de puces ARM (voir « GTC 2013 : Barcelone veut construire des clusters à base de puces ARM et de GPU »).

Le BSC a ainsi mis au point le Pedraforca v1, utilisant 16 cartes Tegra 3 pourvues de GPU Quadro 1000M. Une offre affichant une certaine faiblesse en termes de vitesse d’interconnexion. Le Pedraforca 2 optait pour des cartes Tegra 3 pilotant des Tesla K20, interconnectés via des liens Infiniband à 40 Gb/s. Une offre très puissante, mais aux besoins en énergie bien plus importants.

La mobilité : un défaut ou une chance ?

Les concepteurs de clusters alliant ARM et GPU doivent aujourd’hui s’appuyer sur des puces conçues pour les terminaux mobiles. Si le rapport performance par watt de ces composants est bon, leur puissance n’est pas optimisée pour le HPC.

La version 64 bits du Tegra K1 utilise des cœurs ARM 64 bits Denver. Des CPU qui ne font plus ici de la figuration tant leur puissance est proche de leurs homologues x86 (voir « Nvidia Tegra K1 64 bits : la puissance d’un PC dans une tablette ? »). Et les futures puces ARM serveur devraient confirmer cette montée en gamme, avec des composants pouvant intégrer plusieurs dizaines de cœurs ARM, ainsi que des liaisons réseau à haute vitesse.

Avec son CoreLink CCN-512, ARM devrait démocratiser les puces comprenant jusqu’à 48 cœurs, mêlant CPU, DSP et GPU. De quoi concevoir des composants dédiés spécifiquement au monde du HPC.

Sur le même thème

IBM et Nvidia en charge de 2 supercalculateurs de 150 et 100 Pflops
Bataille de coeurs pour les puces serveurs ARM 64 bits
Qualcomm va investir le marché des serveurs ARM