Pour gérer vos consentements :
Categories: Cloud

GTC 2010 : Tsubame 2.0, le petit supercalculateur qui défie les plus grands

Le Tsubame 2.0 est un nouveau supercalculateur japonais, qui s’architecture autour de GPU NVIDIA. Pour Satoshi Matsuoka, de l’institut de technologie de Tokyo, ce choix est logique. Les GPU permettent en effet de construire un supercalculateur puissant, avec un encombrement, un coût et une consommation électrique inférieurs à ceux constatés pour des clusters classiques.

Seul problème, un GPU ne se programme par comme un processeur x86. Toutefois, ce souci ne semble guère gêner les responsables du projet. Il est vrai que les Japonais sont de grands partisans des processeurs vectoriels, aptes à gérer de larges masses de données sans ralentissements, mais toutefois moins rapides que les clusters de machines pourvues de processeurs scalaires, comme les puces x86. Or, « le GPU reprend le meilleur des deux mondes », explique Satoshi Matsuoka lors de sa présentation. Et de montrer combien le portage du code a été aisé et rapide.

Le Tsubame 2.0 se concentrera sur les simulations devant être réalisées plus vite que le temps réel. Cette caractéristique lui permettra de constituer un système d’alerte efficace, capable par exemple de mesurer les retombées d’un tsunami quelques minutes après le tremblement de terre qui l’a provoqué (soit parfois plusieurs heures avant que la vague ne touche les côtes), ou d’effectuer des études météo à haute altitude afin de prévoir et suivre l’évolution des typhons (avec plusieurs jours d’avance).

Ce supercalculateur, qui devrait être livré très prochainement, est constitué de nouveaux serveurs HP pourvus de GPU NVIDIA. Chacun des 1408 nœuds de calcul comprend trois cartes Fermi M2050, pilotées par deux processeurs hexacœurs Intel Xeon X5670 cadencés à 2,93 GHz. Le tout prend place dans seulement 44 racks, la partie calcul de cette machine se contentant d’une salle de 200 m². Connexions réseau à haut débit et importants moyens de stockage (comprenant des SSD) sont également de la partie. Certes, cette ‘petite’ machine ne pourra concurrencer des mastodontes comme le futur supercalculateur 10 pétaflops de Kobe (et ses plus de 10.000 m² de surface occupée). Toutefois, sa densité permettra de proposer une bande passante très importante, ce qui en fera une solution très réactive. Mais ce n’est pas tout : « Avec une puissance utilisable comprise entre 1,2 pétaflops et 1,4 pétaflops, le Tsubame 2.0 ne sera pas la machine la plus rapide (aujourd’hui, elle occuperait la seconde ou la troisième place du Top 500, NDLR), mais elle prendra probablement la tête du classement des clusters les plus écologiques. »

Satoshi Matsuoka s’essaie enfin au jeu des pronostics. Il prédit que les premières machines exaflopiques pourvues de GPU pourraient voir le jour d’ici 2016/2017.

Recent Posts

AWS abandonne WorkDocs, son concurrent de Dropbox

Un temps pressenti pour constituer le socle d'une suite bureautique AWS, Amazon WorkDocs arrivera en…

6 heures ago

Eviden structure une marque de « serveurs IA »

Eviden regroupe cinq familles de serveurs sous la marque BullSequana AI. Et affiche le supercalculateur…

9 heures ago

SSE : l’expérience se simplifie plus que les prix

Le dernier Magic Quadrant du SSE (Secure Service Edge) dénote des tarifications et des modèles…

11 heures ago

IA générative : les lignes directrices de l’ANSSI

Formats de paramètres, méthodes d'apprentissage, mutualisation GPU... Voici quelques-unes des recommandations de l'ANSSI sur l'IA…

1 jour ago

De la marque blanche à l’« exemption souveraine », Broadcom fait des concessions aux fournisseurs cloud

À la grogne des partenaires VMware, Broadcom répond par diverses concessions.

1 jour ago

iPadOS finalement soumis au DMA

iPadOS a une position suffisamment influente pour être soumis au DMA, estime la Commission européenne.

1 jour ago