GTC 2013 : Nvidia, pragmatisme ou audace ?

Opinion © Dusit - Shutterstock

GPU computing, ARM et virtualisation du GPU. Sous des dehors plutôt sages, Nvidia est une société qui n’hésite pas à créer de nouveaux marchés de toutes pièces. Décryptage…

Lorsque l’on demande à Nvidia pourquoi le Tegra 4 dispose encore d’un GPU à pipeline fixe alors que tous ses concurrents (ou presque) adoptent aujourd’hui un GPU programmable, la réponse est claire : il n’est pas nécessaire d’aller au-delà des besoins du marché.

Une position pragmatique, mais qui n’empêche pas une certaine audace. Lors du GTC 2010 (que nous avions alors couvert en direct, tout comme cette édition 2013), la rencontre avec Jen-Hsun Huang, cofondateur, président et CEO de Nvidia, avait été décisive : l’homme à des idées et il entend bien les imposer.

1. GPU computing

En 2010, le GPU computing, qui consiste à utiliser la puissance des processeurs graphiques dans le cadre de calculs massivement parallèles, commençait à gagner en popularité. Un indéniable succès pour Nvidia qui avait alors réussi à créer un nouveau marché de toutes pièces, malgré le pessimisme des analystes et médias.

Aujourd’hui, les GPU de Nvidia sont présents dans 4 des 23 supercalculateurs pétaflopiques présents au monde. Dont le numéro 1, le Titan (17,6 pétaflops). Et la firme est bien positionnée pour gagner la course à l’exaflops.

2. ARM de hautes performances

Belotte et rebelote, si l’on peut dire, avec les Tegra, la gamme de puces ARM de l’américain. D’une première version un peu décevante, nous en sommes maintenant à une quatrième génération. Là encore, peu auraient parié sur la firme.

Et pourtant, avec la sortie du Tegra 4 et de son petit frère le Tegra 4i, Nvidia s’affiche en leader des offres ARM de haut de gamme. Une position que la société devrait renforcer avec le Tegra 5 (nom de code Logan), qui intégrera (enfin) un GPU programmable.

3. Virtualisation du GPU

Avec les GPU Kepler, Nvidia a encore une fois bousculé le marché. Ces derniers sont en effet déclinés en deux versions : une présentant une haute efficacité énergétique et une puissance maximale en simple précision, mais peu de performances en double précision; une seconde mettant l’accent sur la puissance en simple comme en double précision, avec support de la mémoire ECC.

L’objectif de la seconde gamme ne laisse planer aucun doute : elle vise le marché des supercalculateurs. Mais quid de la première ? Visualisation, jeux… Certes, mais ce n’est pas tout.

Nvidia a en effet joué la carte de la visualisation en mode cloud, favorisée ici par une efficacité énergétique soignée, mais également par un encodeur H264 temps réel fixé dans le silicium, qui permet un affichage distant. Et de créer par la même occasion le concept de GPU virtualisé. Les usages vont du plus classique au plus audacieux, comme le jeu dans le cloud.

GPU computing, virtualisation du GPU et puces ARM haut de gamme, ont transformé en profondeur l’activité de la société, mais également le marché dans son ensemble (chose particulièrement vraie dans le monde du HPC).

Derrière la prudence se cache donc une véritable capacité à prendre des risques. C’est finalement un des secrets les mieux gardés de la firme.

Crédit photo : © Dusit – Shutterstock