Pour gérer vos consentements :
Categories: Cloud

GTC 2010 : Tsubame 2.0, le petit supercalculateur qui défie les plus grands

Le Tsubame 2.0 est un nouveau supercalculateur japonais, qui s’architecture autour de GPU NVIDIA. Pour Satoshi Matsuoka, de l’institut de technologie de Tokyo, ce choix est logique. Les GPU permettent en effet de construire un supercalculateur puissant, avec un encombrement, un coût et une consommation électrique inférieurs à ceux constatés pour des clusters classiques.

Seul problème, un GPU ne se programme par comme un processeur x86. Toutefois, ce souci ne semble guère gêner les responsables du projet. Il est vrai que les Japonais sont de grands partisans des processeurs vectoriels, aptes à gérer de larges masses de données sans ralentissements, mais toutefois moins rapides que les clusters de machines pourvues de processeurs scalaires, comme les puces x86. Or, « le GPU reprend le meilleur des deux mondes », explique Satoshi Matsuoka lors de sa présentation. Et de montrer combien le portage du code a été aisé et rapide.

Le Tsubame 2.0 se concentrera sur les simulations devant être réalisées plus vite que le temps réel. Cette caractéristique lui permettra de constituer un système d’alerte efficace, capable par exemple de mesurer les retombées d’un tsunami quelques minutes après le tremblement de terre qui l’a provoqué (soit parfois plusieurs heures avant que la vague ne touche les côtes), ou d’effectuer des études météo à haute altitude afin de prévoir et suivre l’évolution des typhons (avec plusieurs jours d’avance).

Ce supercalculateur, qui devrait être livré très prochainement, est constitué de nouveaux serveurs HP pourvus de GPU NVIDIA. Chacun des 1408 nœuds de calcul comprend trois cartes Fermi M2050, pilotées par deux processeurs hexacœurs Intel Xeon X5670 cadencés à 2,93 GHz. Le tout prend place dans seulement 44 racks, la partie calcul de cette machine se contentant d’une salle de 200 m². Connexions réseau à haut débit et importants moyens de stockage (comprenant des SSD) sont également de la partie. Certes, cette ‘petite’ machine ne pourra concurrencer des mastodontes comme le futur supercalculateur 10 pétaflops de Kobe (et ses plus de 10.000 m² de surface occupée). Toutefois, sa densité permettra de proposer une bande passante très importante, ce qui en fera une solution très réactive. Mais ce n’est pas tout : « Avec une puissance utilisable comprise entre 1,2 pétaflops et 1,4 pétaflops, le Tsubame 2.0 ne sera pas la machine la plus rapide (aujourd’hui, elle occuperait la seconde ou la troisième place du Top 500, NDLR), mais elle prendra probablement la tête du classement des clusters les plus écologiques. »

Satoshi Matsuoka s’essaie enfin au jeu des pronostics. Il prédit que les premières machines exaflopiques pourvues de GPU pourraient voir le jour d’ici 2016/2017.

Recent Posts

Appel de Rome : Cisco rejoint Microsoft et IBM pour une IA éthique

Quatre ans après l’appel de Rome - un pacte présenté en 2020 par le Vatican…

15 minutes ago

Legapass : comment protéger ses données privées jusque dans l’au-delà

Comment gérer les données numériques après la mort de son détenteur ? La jeune pousse…

3 jours ago

Iris, un assistant d’IA conversationnelle en langue des signes

Ivès, expert en accessibilité de la surdité, s’est associé à Sopra Steria et à IBM…

3 jours ago

GenAI : le Royaume-Uni poursuit ses investigations sur les partenariats de Microsoft et Amazon

L'Autorité de la concurrence et des marchés (CMA) a lancé la phase de recherche de…

4 jours ago

Clients de VMware : les raisons de la colère

Broadcom remplace pas moins de 168 logiciels VMware par deux grandes licences de location correspondant…

4 jours ago

Laurent Carlier – BNP Paribas Global Market : « L’IA permet de modéliser des relations plus complexes, mais il faut rester prudent »

La banque d’investissement utilise l'IA pour proposer des stratégies individualisées, en termes de rendement et…

4 jours ago