PME : mesurez-vous aux plus grands !

Comment bien choisir son architecture HPC ?

Vos besoins en calcul ont explosé et vous réfléchissez maintenant à la meilleure façon d’opter pour une solution HPC. Notre expert HPE vous aidera à y voir plus clair, afin de choisir la bonne architecture et le bon matériel.

« Le calcul de haute performance, on en fait depuis longtemps, témoigne Laurent Grandguillot, responsable business HPC chez HPE France. Dans ce secteur, il y a deux gros types d’utilisation : le HTC – High-throughput computing – qui consiste à lancer plein de calculs, chacun sur un bout de machine ; et le HPC proprement dit – High-performance computing – où un seul et unique job est lancé sur l’ensemble du supercalculateur. »

D’un côté, nous allons typiquement trouver les banques. L’autre sera la quasi-chasse gardée des laboratoires de recherche. Mais aussi des bureaux d’étude, friands de calculs lourds et longs.

Les supercalculateurs du top500 des ordinateurs les plus véloces de la planète se ressemblent tous sur un point : ce sont des clusters cumulant des centaines, voire des milliers de cœurs de processeurs. Une stratégie scale-out assumée, où le code est capable de fonctionner sur des milliers de cœurs. Mais cela n’est pas toujours le cas. Il faut alors opter pour une approche scale-up, visant à proposer les meilleures performances possible par cœur.

Pouvoir alimenter et refroidir

Comment bien aborder son projet HPC ? « Nous étudions tout d’abord les capacités d’hébergement du client, explique Laurent Grandguillot. En particulier la disponibilité en puissance électrique et en capacité de refroidissement. »

L’espace occupé n’est pas ici le premier critère, car les solutions HPC sont souvent très denses. Par contre, la capacité à alimenter et refroidir les racks est essentielle. « Chez un hébergeur, nous parlons de 10-15 kW par rack 42U. En HPC, nous passons à 50-100 kW par armoire. On doit se poser la question de savoir comment les alimenter et les refroidir. »

Laurent Grandguillot, HPE

 

Vient ensuite le côté applicatif : « Nous allons isoler les 20 % d’applications les plus utilisées. Celles qui sont exploitées 80 % du temps. Nous étudions alors les algorithmes employés et leur impact sur la puissance CPU, la mémoire et les entrées/sorties. Puis nous regardons comment ils se comportent sur le hardware. En fonction de cela, nous allons privilégier un processeur à haute fréquence ou à large nombre de cœurs, une certaine capacité mémoire, ou encore des technologies d’accélération, » explique notre expert.

 

 

Ces accélérateurs peuvent être des GPU, des Xeon Phi ou encore des FPGA. La puissance est alors très importante, mais nécessite un support de la part des ISV. Sans quoi elle sera souvent peu aisée à exploiter.

Apollo à la rescousse

Fort de tous ces enseignements, HPE peut aller piocher dans sa gamme Apollo les solutions les mieux adaptées. Pour les besoins les plus classiques, des serveurs traditionnels bisockets, de type Apollo 2000, sont recommandés. Le tout avec un minimum de capacités de communication (Infiniband et Ethernet) et de couche de gestion. Pour les cibles plus hétérogènes, il faut privilégier des formats acceptant des équipements plus variés, comme les Apollo 6000, capables d’accueillir des accélérateurs.

Attention toutefois à  ne pas négliger le réseau. « Les communications sont capitales, car au milieu de tout cela, il y a de la data », conclut Laurent Grandguillot.