Architectures multi-coeurs : la nouvelle donne

Logiciels

Ca bouge dans les datacenters, dans les centres de calculs… La mise en batterie de serveurs X86 multi-sockets, multi-coeurs bouscule la donne. Avec la densification, les critères de performances changent

La banalisation, relative mais bien réelle, des architectures de serveurs X86 supportant du ‘bi-socket’ à 8, 12 voire 16 coeurs modifie l’équation de nombreux datacenters.

Au delà de la capacité théorique de la vitesse d’exécution par processeur, les responsables IT sont poussés à de nouveaux raisonnements, à une série de questions sur la pérennité des précédents calculateurs. Car il convient, à cause des nouvelles performances possibles, de faire notamment le point sur la puissance de calcul brute, par traitement, et la globalité d’un programme de traitements multiples.

Parmi les possibilités techniques, on va mentionner, par exemple, le ‘thread‘ blocable, c’est à dire la possibilité de dédier un coeur de processeur à certaines tâches.  Le nombre de canaux ‘mémoire’ (2 ou 4) impacte également les performances, puisqu’on raisonne sur du ‘multi-sockets’/multi-coeurs.
Si l’on est conduit à valoriser la performance mesurées en méga-FLOPs par mètre-carré, il est clair que des choix vont devoir être faits.

Ceci conduit à apprécier les performances de traitement selon deux angles très différents, et donc à faire des choix d’architecture bien distincts. Car sur le terrain, là où l’on a besoin de puissance de calcul, deux critères apparaissent vite en tête de liste:
– le temps que l’on peut qualifier “de restitution”, c’est à dire le temps minimal, optimisé, que permet d’atteindre la machine pour un ‘job’ donné; -qu’on peut appeler la ‘capability‘;
– la capacité globale brute, ou ‘troughput’, c’est à dire le nombre de ‘jobs’ que peut supporter une même machine sur une journée, sur 24 heures, -ou la ‘capacity‘, qui tire parti, notamment, du traitement de tâches en parallèle, grâce aux multi-coeurs/ multi-sockets.

Le témoignage du CERFACS de Toulouse

CERFACS Toulouse, Nicolas Monnier
CERFACS Toulouse, Nicolas Monnier

Lors d’une web-conférence en direct, ce mercredi 14 décembre à 11H (la session est en direct, on peut donc poser toute une liste de questions), cette question critique sera abordée et discutée, chiffres de benchmark à l’appui, avec le témoignage de Nicolas Monnier, DSI du centre de calcul CERFACS de Toulouse (*), spécialisé dans les calculs de simulation en 3D animée, pour le compte de ses actionnaires (CNES, EADS France, EDF, Météo France, Onera, Safran, Total…) .  Il expliquera notamment comment on peut parvenir à un doublement de capacité (de 22  à 50 megaflops d’une année sur l’autre!) sans tout changer -c ‘est à dire en tirant parti de la possibilité d’upgrader l’installation en passant des précédentes générations de processeurs multi-coeurs  -Westmere ou MagnyCours d’Intel et AMD, respectivement, à la génération Sandy Bridge, Interlagos… (proposant 4, 8, 12 et 16 coeurs).

En ouverture de cette session, les intervenants, dont un consultant indépendant, expliqueront les avantages pour des solutions de calculs purs -par exemple des simulations dans le domaine scientifique ou dans la virtualisation des applications, avec le support de centaines de ‘machines virtuelles’.
____
(*) CERFACS: Centre Européen de Recherche et de Formation Avancée en Calcul Scientifique; il a pour mission de développer des méthodes de simulation numérique avancées, dans la recherche publique et industrielle.
____
Webconférence,  du 14 décembre. Datacenter : doper les performances en maîtrisant/réduisant les coûts.  Qu’apporte la nouvelle génération de processeurs X86, à 8 ou 16 coeurs?  En savoir plus, ici.


Lire la biographie de l´auteur  Masquer la biographie de l´auteur