NVIDIA intensifie sa stratégie HPC avec des avancées dans les GPU et les puces ARM

Le spécialiste du GPU Computing NVIDIA lance de nouveaux outils de programmation parallèle et lève un peu plus le voile sur sa stratégie ARM+GPU.

Dans le cadre du SC11 de Seattle, NVIDIA a fait plusieurs annonces, détaillées ici sur deux pages.

Un nouveau standard pour la programmation parallèle

La firme propose tout d’abord une solution logicielle permettant de faciliter la mise au point d’applications massivement parallèles, aptes à tourner sur ses GPU.

Cette volonté se traduit par l’introduction de l’OpenACC, un standard soutenu par des acteurs comme Cray, PGI et CAPS Entreprise. Cette technique permet d’insérer des directives dans du code classique, lesquelles seront converties par un compilateur compatible OpenACC en optimisations dédiées aux GPU et aux CPU multicœurs.

Le code demeure pour le reste inchangé et sera toujours compilable avec des outils courants. Cette technique permet donc de coder le logiciel de façon standard, puis de passer par une phase de mesure des performances et d’optimisation des parties critiques du logiciel. Nvidia promet que cette approche permettra aux développeurs de multiplier par deux la vitesse d’une application effectuant des calculs en seulement quatre semaines.

Une version d’essai du PGI Accelerator (un premier produit C et Fortran compatible avec l’OpenACC) est accessible depuis cette page web du site de NVIDIA.

Un compilateur rénové pour les cinq ans de CUDA

La technologie CUDA de la firme vient de souffler sa cinquième bougie. À cette occasion, le Dr. Ian Buck, l’inventeur de CUDA et le directeur général du GPU Computing chez Nvidia revient sur cette avancée technologique qui a changé le monde des composants graphiques, comme celui des supercalculateurs.

Pour fêter dignement cet événement, la release candidate de CUDA 4.1 fait son entrée. Elle introduit un compilateur open source basé sur LLVM. Ce dernier est non seulement ouvert, mais il permet aussi d’améliorer la vitesse des applications d’un maximum de 10 %.

Un nouvel outil de profilage permettra pour sa part de mieux mesurer les performances du code écrit. Enfin, plus de 1000 nouvelles fonctions font leur entrée dans la librairie de traitement d’images fournie avec CUDA.

Dernier point, les utilisateurs pourront dorénavant s’équiper avec une nouvelle génération de stations de travail, combinant un GPU orienté graphismes (une carte Quadro) et un GPU orienté calculs (une carte Tesla C2075 créditée d’une puissance de 515 gigaflops en double précision). Dell, Fujitsu, HP et Lenovo proposent d’ores et déjà des machines ‘Maximus’ dans leurs catalogues respectifs.