Nvidia CUDA 1.0 pour développer du GPU Computing HPC

Après l’annonce de Tesla, sa solution de GPU Computing (calcul sur processeur
graphique), Nvidia renforce son offre avec un environnement de développement

Nvidia propose une solution originale de calcul HPC au travers de la puissance de calcul parallèle des processeurs graphiques, le GPU Computing avec Nvidia Tesla. Mais c’est encore loin d’être suffisant, car il faut l’accompagner d’un environnement de développement logiciel pour les applications HPC

C’est ce que propose le constructeur avec Nvidia CUDA 1.0, qui associe un C et kit de développement logiciel (SDK). Cet ensemble logiciel, associé à Tesla, apporte une plate-forme informatique massivement parallèle et flexible pour les applications intensives exigeantes.

CUDA 1.0 comprend de nouvelles optimisations du compilateur C et des améliorations des performances avec une nouvelle fonctionnalité et des exemples de code C. Les bibliothèques CUDA BLAS et FFT ont été optimisées et comprennent une fonctionnalité additionnelle ainsi que de nouveaux exemples de code C destinés au calcul financier et à l’imagerie médicale, qui ont déjà installés avec le SDK.

De plus, le code d’interface CPU vers le GPU a été amélioré permettant les appels de lancement asynchrone et les copies de mémoire entre appareils asynchrones.

Démonstration par l’exemple avec Matlab En marge de l’annonce de CUDA 1.0, Nvidia a présenté un exemple de plug-in permettant aux programmes Matlab d’utiliser les bibliothèques du processeur graphique (GPU) pour accélérer leurs applications.L’exemple a pour but de montrer aux utilisateurs comment écrire leur propre version pour accélérer leur code et déployer toutes les capacités du GPU à travers l’environnement logiciel CUDA. »Une simulation standard d’une turbulence isotropique 2D avec Matlab dans une résolution convenant à des publications scientifiques (1024×1024) prenait encore récemment quelques jours« , a déclaré Andy Keane, general manager de l’activité GPU Computing de Nvidia. »Avec les plug-ins CUDA, nous pouvons réaliser cette même simulation en 4 heures, soit 12 fois plus rapidement, et en l’optimisant davantage, nous pouvons encore raccourcir ce délai.«