Pour gérer vos consentements :
Categories: Logiciels

GTC 2010 : NVIDIA mise sur le cloud computing et l’ultramobilité

San José, Californie, premier jour de la GPU Technology Conference 2010 (GTC 2010) de NVIDIA. Jen-Hsun Huang, président, CEO et cofondateur de la compagnie, semble serein. Il est à peine intimidé par la foule compacte de participants (pourtant tous équipés de lunettes stéréoscopiques). Il est vrai que le GPU Computing semble aujourd’hui avoir atteint une masse critique qui le met à l’abri d’un éventuel échec. En témoigne le vaste écosystème gravitant autour de CUDA.

Cette technologie a remporté quelques succès d’importance depuis l’an dernier : 362 universités en apprennent les fondements à leurs élèves et la base installée de GPU compatibles CUDA dépasserait les 250 millions d’unités. Le GPU Computing a même fait une entrée remarquée dans le top 500 des ordinateurs les plus rapides de la planète, puisqu’il est à l’œuvre dans la seconde machine de ce classement, un cluster pétaflopique chinois, le Nebulae. 3ds Max, Amber, Ansys et Matlab sont autant de logiciels leaders sur leurs secteurs respectifs qui utilisent l’accélération proposée par CUDA.

« L’HPC (High-Performance Computing) est un des piliers de la science. Le GPU Computing rend les supercalculateurs plus accessibles, car il est abordable et abondant », déclare Jen-Hsun Huang. Le CEO de NVIDIA explique également que le « le GPU Computing permet de remettre l’informatique dans la course aux performances, laquelle s’est fortement ralentie depuis début 2000. »

Jen-Hsun Huang

À un bout, le cloud…

Carton plein donc dans le domaine du GPU Computing, que la compagnie voit comme un élément essentiel des futures offres cloud. Encore faudrait-il que les GPU puissent offrir plus de souplesse, en permettant par exemple de faire fonctionner simultanément plusieurs programmes… sans quoi il sera fort difficile de distribuer la ressource GPU en tant que service, une caractéristique nécessaire pour aborder le marché du cloud computing sous les meilleurs auspices.

Jen-Hsun Huang l’a bien compris. En fin de keynote, il dévoile ainsi les noms des futurs GPU de la firme, qui proposeront un rapport performance par watt étendu, mais aussi quelques nouvelles fonctionnalités, comme le support de la préemption et de la mémoire virtuelle, deux caractéristiques nécessaires à la mise en place d’un aspect multitâche au sein des GPU. Les transferts entre la carte graphique et le processeur central de l’ordinateur devraient également progresser.

Deux familles de GPU ont été évoquées : Kepler, attendu pour le second semestre 2010, proposera un rapport performance par watt 3 à 4 fois supérieur à celui des puces Fermi. Maxwell lui succèdera en 2013, avec un rapport performance par watt triplé, soit 10 à 12 fois supérieur à celui des GPU Fermi.

… à l’autre, les terminaux mobiles

Côté client, Jen-Hsun Huang mise sur les terminaux mobiles. Exit les lourds PC. Les « super smartphones », tablettes et netbooks se connecteront directement au cloud. Une manière pour la firme de faire oublier qu’elle a totalement raté son virage x86, puisqu’elle ne propose aucun composant de ce type, contrairement à son concurrent, AMD.

À sa décharge, elle avance quelques arguments de poids en faveur de ses puces Tegra : « L’architecture ARM est celle qui connait aujourd’hui la plus grosse croissance, mais aussi celle qui a connu la plus grosse croissance depuis le début de l’informatique. C’est également l’architecture où les systèmes d’exploitation qui montent sont présents. » Difficile de rater l’allusion à Android.

Lors de la conférence de presse qui a suivi son allocution, Jen-Hsun Huang reconnait toutefois que les produits pourvus du Tegra 2 tardent quelque peu à arriver. Il estime que cela pourrait changer d’ici la fin de l’année et insiste sur la nécessité de proposer des systèmes d’exploitation, des applications et des services adaptés.

Par ailleurs, il n’hésite pas à annoncer que les Tegra 3 et Tegra 4 sont d’ores et déjà sur les rails. Au détour d’une citation, certaines nouveautés sont même évoquées : « Je suis très excité par l’arrivée du traitement parallèle dans le monde mobile, car c’est le moyen le plus efficace, du point de vue de la consommation électrique, d’apporter la puissance requise dans le cadre de certains traitements lourds, comme la reconnaissance vocale. » Les unités graphiques intégrées au sein des futures puces mobiles de la firme pourraient donc – à terme – elles aussi être exploitées pour des calculs plus génériques.

Recent Posts

Ce que Llama 3 dit de l’évolution des LLM

Diverses tendances animant l'univers des LLM transparaissent en filigrane du discours de Meta sur Llama…

9 heures ago

APT44, bras armé cyber de la Russie

Mandiant a attribué un APT à Sandworm, considéré comme le principal groupe cybercriminel à la…

1 jour ago

Cybersécurité : HarfangLab et Filigran connectent EDR et CTI

Les deux startup proposent un connecteur entre la platefome OpenCTI de Filigran et l’EDR de…

1 jour ago

Le hacking autonome, capacité émergente de GPT-4 ?

Des chercheurs ont mis des agents LLM à l'épreuve dans la détection et l'exploitation de…

1 jour ago

Les applications de messagerie se mettent au chiffrement post-quantique

Dans la lignée de Signal, iMessage intègre une couche de chiffrement post-quantique.

1 jour ago

Infrastructures LAN : une photo du marché avant la fusion HPE-Juniper

Douze fournisseurs sont classés dans le dernier Magic Quadrant des infrastructures LAN.

2 jours ago