Pour gérer vos consentements :
Categories: Cloud

Marc Mendez, Dell : « Proposer du HPC sur mesure sur la base de la gamme standard »

Silicon.fr – Comment évolue le marché du HPC en Europe pour Dell ?

Marc Mendez – Nous travaillons beaucoup dans le domaine de l’éducation et de la recherche. Au niveau européen, nous disposons d’une équipe dédiée qui regroupe des experts du HPC.

Dell n’a pas de solution HPC préconçue. Nous nous servons de la gamme de serveurs Dell et de quelques briques prédéfinies (visualisation, calcul sur GPU, système de fichier parallèle…) afin de proposer des solutions sur mesure.

Le critère principal est aujourd’hui l’efficacité énergétique. À côté de cela, nous notons deux tendances : les clients qui visent la plus grande échelle possible, avec une performance inconditionnelle, et les systèmes dédiés à un grand nombre d’utilisateurs, où nous avons besoin de polyvalence côté applications.

Quid des technologies employées… et des accélérateurs ?

Côté polyvalence, le Xeon reste un champion. Notre offre comprend aussi des processeurs AMD. Même s’ils ont perdu beaucoup de vitesse, leur rapport performance/prix reste meilleur dans un bon nombre cas.

Côté accélérateurs, nous supportons l’ensemble des technologies standard : GPU AMD, GPU Nvidia et Xeon Phi d’Intel. Le large panel d’applications Cuda favorise les solutions Nvidia. Les parts de marché des accélérateurs AMD restent faibles. Pour le Xeon Phi, il n’y a pas de gros systèmes installés en France. Nous avons toutefois équipé l’Inria Bordeaux d’une armoire Xeon Phi de 40 téraflops.

Le fait de pouvoir prendre une application éligible et de la porter sous Xeon Phi en quelques heures garantit la pérennité du code, et permet de rentabiliser rapidement le développement. La solution proposée par Nvidia demeure encore un cran au-dessus en matière de performances, mais en termes d’adaptation du code, elle reste relativement complexe.

Quels sont les plus gros clusters Dell installés ?

Le plus gros supercalculateur Dell est le Stampede du TACC (Texas Advanced Computing Center, Texas, 5,2 pétaflops, 7e au classement du Top500). Nous allons également fournir le Comet au SDSC (San Diego Supercomputing Center, Californie), d’une puissance de plus de 2 pétaflops (voir « Access to San Diego Supercomputing Center’s Comet Petascale System Represents ‘Long Tail of Science’ Theory »).

En France, nous équipons le centre de calcul de l’IN2P3 (Institut National de Physique Nucléaire et de Physique des Particules), qui comprend plus de 1000 serveurs et environ 10 pétaoctets de stockage.

Cet ensemble, qui traite – entre autres – les données du LHC (CERN), est une grille et non un supercalculateur classique. Il propose donc peu de puissance unitaire (ce qui lui vaut de ne pas être classé au Top500), mais une grosse capacité à gérer des tâches en parallèle.

Crédit photo : © Dell


Voir aussi
Quiz Silicon.fr – Connaissez-vous l’histoire de Dell ?

Recent Posts

Après la NAND, Intel dit stop à la gamme Optane

Après avoir vendu son activité NAND, Intel tire un trait sur la technologie 3D XPoint,…

2 semaines ago

Google Analytics : la Cnil a posé les règles du jeu

Près de six mois ont passé depuis de que la Cnil a déclaré l'usage de…

2 semaines ago

Truffle 100 France : le top 20 des éditeurs de logiciels

Truffle 100 France : qui sont les 21 entreprises qui ont dépassé, en 2021, les…

2 semaines ago

Cloud : AWS brocarde les politiques de licences Microsoft

Un dirigeant d'Amazon Web Services dénonce des "changements cosmétiques" apportés par Microsoft à ses politiques…

2 semaines ago

Sécurité du code au cloud : Snyk Cloud, un joker pour développeurs

Snyk officialise le lancement de sa solution de sécurité cloud pour développeurs, Snyk Cloud, fruit…

2 semaines ago

Cegid accroche Grupo Primavera à son tableau d’acquisitions

Cegid va absorber Grupo Primavera, plate-forme de logiciels de gestion d'entreprise née dans la péninsule…

2 semaines ago