Pour gérer vos consentements :
Categories: Cloud

GTC 2010 : Tsubame 2.0, le petit supercalculateur qui défie les plus grands

Le Tsubame 2.0 est un nouveau supercalculateur japonais, qui s’architecture autour de GPU NVIDIA. Pour Satoshi Matsuoka, de l’institut de technologie de Tokyo, ce choix est logique. Les GPU permettent en effet de construire un supercalculateur puissant, avec un encombrement, un coût et une consommation électrique inférieurs à ceux constatés pour des clusters classiques.

Seul problème, un GPU ne se programme par comme un processeur x86. Toutefois, ce souci ne semble guère gêner les responsables du projet. Il est vrai que les Japonais sont de grands partisans des processeurs vectoriels, aptes à gérer de larges masses de données sans ralentissements, mais toutefois moins rapides que les clusters de machines pourvues de processeurs scalaires, comme les puces x86. Or, « le GPU reprend le meilleur des deux mondes », explique Satoshi Matsuoka lors de sa présentation. Et de montrer combien le portage du code a été aisé et rapide.

Le Tsubame 2.0 se concentrera sur les simulations devant être réalisées plus vite que le temps réel. Cette caractéristique lui permettra de constituer un système d’alerte efficace, capable par exemple de mesurer les retombées d’un tsunami quelques minutes après le tremblement de terre qui l’a provoqué (soit parfois plusieurs heures avant que la vague ne touche les côtes), ou d’effectuer des études météo à haute altitude afin de prévoir et suivre l’évolution des typhons (avec plusieurs jours d’avance).

Ce supercalculateur, qui devrait être livré très prochainement, est constitué de nouveaux serveurs HP pourvus de GPU NVIDIA. Chacun des 1408 nœuds de calcul comprend trois cartes Fermi M2050, pilotées par deux processeurs hexacœurs Intel Xeon X5670 cadencés à 2,93 GHz. Le tout prend place dans seulement 44 racks, la partie calcul de cette machine se contentant d’une salle de 200 m². Connexions réseau à haut débit et importants moyens de stockage (comprenant des SSD) sont également de la partie. Certes, cette ‘petite’ machine ne pourra concurrencer des mastodontes comme le futur supercalculateur 10 pétaflops de Kobe (et ses plus de 10.000 m² de surface occupée). Toutefois, sa densité permettra de proposer une bande passante très importante, ce qui en fera une solution très réactive. Mais ce n’est pas tout : « Avec une puissance utilisable comprise entre 1,2 pétaflops et 1,4 pétaflops, le Tsubame 2.0 ne sera pas la machine la plus rapide (aujourd’hui, elle occuperait la seconde ou la troisième place du Top 500, NDLR), mais elle prendra probablement la tête du classement des clusters les plus écologiques. »

Satoshi Matsuoka s’essaie enfin au jeu des pronostics. Il prédit que les premières machines exaflopiques pourvues de GPU pourraient voir le jour d’ici 2016/2017.

Recent Posts

Quels impacts de l’IA générative sur le monde de la cybersécurité ? : regards croisés entre Onepoint, Wavestone et Fortinet

Quels sont les impacts immédiats de l'IA générative sur la cybersécurité ? Comment le contexte…

2 heures ago

Des serveurs IA cyberattaqués : le vecteur s’appelle Ray

Un éditeur attire l'attention sur des attaques exploitant l'absence d'autorisation dans une API du framework…

5 heures ago

Amazon débloque la deuxième tranche de son investissement dans Anthropic

Après un premier financement en septembre 2023, Amazon a débloquer le reste de l'enveloppe qu'il…

7 heures ago

Les logiciels libres entrés au SILL au premier trimestre 2024

D'Alpine Linux à XPipe, voic les dernières entrées au SILL (Socle interministériel de logiciels libres).

1 jour ago

Quelques chiffres pour contextualiser le premier livrable du comité de l’IA générative

Le comité de l'IA générative établi en septembre 2023 par le Gouvernement a formulé ses…

1 jour ago

Le DMA, cette entreprise de microgestion des Big Tech

L'UE multiplie les enquêtes et les procédures de non-conformité contre des entreprises soumises au DMA.

1 jour ago