Les instances GPU Amazon sont disponibles en Europe de l’Ouest

Le cloud d'Amazon au service des développeurs Windows

Le HPC, le calcul haute performance, est désormais accessible sur AWS à partir de l’Irlande, qui couvre l’Europe de l’Ouest.

Les organisations européennes à la recherche de puissance de calcul et de capacité de parallélisation massive des ressources informatiques dans le cloud vont pouvoir accéder à l’offre d’instances GPU d’Amazon Web Services (AWS).

Le GPU (Graphics Processing Unit) ou processeur graphique, à la différence du CPU (Central Processing Unit) c’est-à-dire le processeur qui est au cœur de nos ordinateurs, présente la particularité d’offrir de grandes capacités de parallélisation des processus informatiques et applicatifs. Cette capacité inhérente au traitement des images et de la vidéo (décompression, recomposition des images) est aujourd’hui détournée au profit du HPC (High-Performance Computing), bref, du calcul.

Instances HPC sur Amazon EC2

Un utilisateur du cloud Amazon va pouvoir ouvrir jusqu’à 896 cœurs GPU par instance sur Amazon EC2 (Elastic Compute Cloud). Un cluster d’instances GPU peut également être lancé dans Amazon VPC (Virtual Private Cloud), la section privative et isolée du nuage AWS, qui peut adopter le HPC à la consommation via l’usage d’API (Application Programming Interfaces).

Les principales applications avancées par Amazon sont l’ingénierie assistée par ordinateur, la modélisation moléculaire, l’analyse du génome et la modélisation numérique. Plus industriels sont le transcodage vidéo (pour la compression et la décompression) ou le rendu de surfaces 3D.

Grappes d’instances GPU dans le cloud

Comme l’indique Amazon, HPC sur Amazon EC2 est activé par la famille de grappe des types d’instances. Les instances grappe de calcul et grappe de GPU peuvent être utilisées comme n’importe quelle autre instance Amazon EC2, mais offrent également les fonctions optimisées pour les applications HPC.

Les instances grappe peuvent par exemple être lancées dans un groupe d’emplacements dynamiques et redimensionnables. Toutes les instances ont une faible latence et une bande passante non-bloquante de 10 Gb/s entre les instances. Il est également possible de connecter plusieurs groupes d’emplacements pour créer de très grandes grappes pour un traitement massivement parallèle.

Les instances de grappe de GPU donnent accès aux performances parallèles des GPU Nvidia Tesla qui utilisent les modèles de programmation CUDA et OpenCL pour le calcul GPGPU.

Quant au prix, il faudra de nouveau se plonger dans la tarification d’AWS pour tenter de simuler une approche budgétaire…


Voir aussi
Quiz Silicon.fr – Le vocabulaire du cloud