Pour gérer vos consentements :
Categories: Cloud

Marc Mendez, Dell : « Proposer du HPC sur mesure sur la base de la gamme standard »

Silicon.fr – Comment évolue le marché du HPC en Europe pour Dell ?

Marc Mendez – Nous travaillons beaucoup dans le domaine de l’éducation et de la recherche. Au niveau européen, nous disposons d’une équipe dédiée qui regroupe des experts du HPC.

Dell n’a pas de solution HPC préconçue. Nous nous servons de la gamme de serveurs Dell et de quelques briques prédéfinies (visualisation, calcul sur GPU, système de fichier parallèle…) afin de proposer des solutions sur mesure.

Le critère principal est aujourd’hui l’efficacité énergétique. À côté de cela, nous notons deux tendances : les clients qui visent la plus grande échelle possible, avec une performance inconditionnelle, et les systèmes dédiés à un grand nombre d’utilisateurs, où nous avons besoin de polyvalence côté applications.

Quid des technologies employées… et des accélérateurs ?

Côté polyvalence, le Xeon reste un champion. Notre offre comprend aussi des processeurs AMD. Même s’ils ont perdu beaucoup de vitesse, leur rapport performance/prix reste meilleur dans un bon nombre cas.

Côté accélérateurs, nous supportons l’ensemble des technologies standard : GPU AMD, GPU Nvidia et Xeon Phi d’Intel. Le large panel d’applications Cuda favorise les solutions Nvidia. Les parts de marché des accélérateurs AMD restent faibles. Pour le Xeon Phi, il n’y a pas de gros systèmes installés en France. Nous avons toutefois équipé l’Inria Bordeaux d’une armoire Xeon Phi de 40 téraflops.

Le fait de pouvoir prendre une application éligible et de la porter sous Xeon Phi en quelques heures garantit la pérennité du code, et permet de rentabiliser rapidement le développement. La solution proposée par Nvidia demeure encore un cran au-dessus en matière de performances, mais en termes d’adaptation du code, elle reste relativement complexe.

Quels sont les plus gros clusters Dell installés ?

Le plus gros supercalculateur Dell est le Stampede du TACC (Texas Advanced Computing Center, Texas, 5,2 pétaflops, 7e au classement du Top500). Nous allons également fournir le Comet au SDSC (San Diego Supercomputing Center, Californie), d’une puissance de plus de 2 pétaflops (voir « Access to San Diego Supercomputing Center’s Comet Petascale System Represents ‘Long Tail of Science’ Theory »).

En France, nous équipons le centre de calcul de l’IN2P3 (Institut National de Physique Nucléaire et de Physique des Particules), qui comprend plus de 1000 serveurs et environ 10 pétaoctets de stockage.

Cet ensemble, qui traite – entre autres – les données du LHC (CERN), est une grille et non un supercalculateur classique. Il propose donc peu de puissance unitaire (ce qui lui vaut de ne pas être classé au Top500), mais une grosse capacité à gérer des tâches en parallèle.

Crédit photo : © Dell


Voir aussi
Quiz Silicon.fr – Connaissez-vous l’histoire de Dell ?

Recent Posts

ChatGPT : le Financial Times signe avec OpenAI

FT Group, éditeur du Financal Times, a signé un accord avec OpenAI afin d'utiliser ses…

2 jours ago

Les hyperscalers renforcent leurs recherches et datacenters pour l’IA

Au premier trimestre, Microsoft, Meta/Facebook et Alphabet/Google ont déjà investi plus de 32 milliards $…

2 jours ago

Cybersécurité : Darktrace dans l’escarcelle de Thoma Bravo

La société britannique de cybersécurité Darktrace a accepté une offre de rachat de 5,32 milliards…

3 jours ago

Étude Trends of IT 2024 : comment les managers IT développent leurs projets

Silicon et KPMG lancent la deuxième édition de l'étude Trends of IT. Cette édition 2024…

3 jours ago

Atos : l’Etat veut acquérir les activités souveraines

Le ministère de l'économie a adressé une lettre d'intention à la direction d'Atos pour racheter…

3 jours ago

Arnaud Monier – SNCF Connect & Tech : « Notre moteur, c’est l’innovation et nous procédons par incrémentation »

Directeur Technologie de SNCF Connect & Tech, Arnaud Monier lance une campagne de recrutement pour…

3 jours ago