GPU Computing : NVIDIA rend CUDA plus agile

Cloud

NVIDIA renouvelle son offre CUDA avec l’intégration de nouvelles technologies : GPU Direct 2.0, Unified Virtual Addressing et Thrust.

Le GPU Computing est une technique qui consiste à exploiter la puissance des cartes graphiques dans le cadre de calculs massivement parallèles. NVIDIA est un des précurseurs – et leaders – dans ce domaine.

La compagnie présente aujourd’hui sa technologie CUDA 4.0, qui devrait mettre le GPU Computing à la portée d’un nombre toujours croissant de développeurs. GPU Direct 2.0 offre tout d’abord aux différents GPU présents au sein de la machine de communiquer directement entre eux, sans passer par le processeur central de l’ordinateur. Un goulet d’étranglement potentiel est ainsi éliminé et le code est plus facile à maintenir.

Unified Virtual Adressing (UVA) permet pour sa part d’adresser toute la mémoire du système comme un seul ensemble (mémoire centrale de l’ordinateur et mémoire dédiée à chacune des cartes graphiques). Là encore, le travail des développeurs sera grandement simplifié.

Enfin, CUDA 4.0 propose Thrust un ensemble d’algorithmes conçus spécifiquement pour les développeurs C++. Cette librairie de haut niveau se compose de plusieurs routines open source capables de tirer parti de la présence de plusieurs CPU ou GPU, avec des gains en vitesse allant de fois cinq à fois cent par rapport à l’utilisation du seul CPU. Les ressources disponibles seront utilisées de façon optimale, sans intervention du développeur.


Lire la biographie de l´auteur  Masquer la biographie de l´auteur