Pour gérer vos consentements :
Categories: Cloud

Les instances GPU Amazon sont disponibles en Europe de l’Ouest

Les organisations européennes à la recherche de puissance de calcul et de capacité de parallélisation massive des ressources informatiques dans le cloud vont pouvoir accéder à l’offre d’instances GPU d’Amazon Web Services (AWS).

Le GPU (Graphics Processing Unit) ou processeur graphique, à la différence du CPU (Central Processing Unit) c’est-à-dire le processeur qui est au cœur de nos ordinateurs, présente la particularité d’offrir de grandes capacités de parallélisation des processus informatiques et applicatifs. Cette capacité inhérente au traitement des images et de la vidéo (décompression, recomposition des images) est aujourd’hui détournée au profit du HPC (High-Performance Computing), bref, du calcul.

Instances HPC sur Amazon EC2

Un utilisateur du cloud Amazon va pouvoir ouvrir jusqu’à 896 cœurs GPU par instance sur Amazon EC2 (Elastic Compute Cloud). Un cluster d’instances GPU peut également être lancé dans Amazon VPC (Virtual Private Cloud), la section privative et isolée du nuage AWS, qui peut adopter le HPC à la consommation via l’usage d’API (Application Programming Interfaces).

Les principales applications avancées par Amazon sont l’ingénierie assistée par ordinateur, la modélisation moléculaire, l’analyse du génome et la modélisation numérique. Plus industriels sont le transcodage vidéo (pour la compression et la décompression) ou le rendu de surfaces 3D.

Grappes d’instances GPU dans le cloud

Comme l’indique Amazon, HPC sur Amazon EC2 est activé par la famille de grappe des types d’instances. Les instances grappe de calcul et grappe de GPU peuvent être utilisées comme n’importe quelle autre instance Amazon EC2, mais offrent également les fonctions optimisées pour les applications HPC.

Les instances grappe peuvent par exemple être lancées dans un groupe d’emplacements dynamiques et redimensionnables. Toutes les instances ont une faible latence et une bande passante non-bloquante de 10 Gb/s entre les instances. Il est également possible de connecter plusieurs groupes d’emplacements pour créer de très grandes grappes pour un traitement massivement parallèle.

Les instances de grappe de GPU donnent accès aux performances parallèles des GPU Nvidia Tesla qui utilisent les modèles de programmation CUDA et OpenCL pour le calcul GPGPU.

Quant au prix, il faudra de nouveau se plonger dans la tarification d’AWS pour tenter de simuler une approche budgétaire…


Voir aussi
Quiz Silicon.fr – Le vocabulaire du cloud

Recent Posts

Legapass : comment protéger ses données privées jusque dans l’au-delà

Comment gérer les données numériques après la mort de son détenteur ? La jeune pousse…

1 jour ago

Iris, un assistant d’IA conversationnelle en langue des signes

Ivès, expert en accessibilité de la surdité, s’est associé à Sopra Steria et à IBM…

1 jour ago

GenAI : le Royaume-Uni poursuit ses investigations sur les partenariats de Microsoft et Amazon

L'Autorité de la concurrence et des marchés (CMA) a lancé la phase de recherche de…

2 jours ago

Clients de VMware : les raisons de la colère

Broadcom remplace pas moins de 168 logiciels VMware par deux grandes licences de location correspondant…

2 jours ago

Laurent Carlier – BNP Paribas Global Market : « L’IA permet de modéliser des relations plus complexes, mais il faut rester prudent »

La banque d’investissement utilise l'IA pour proposer des stratégies individualisées, en termes de rendement et…

2 jours ago

Open Compute Project : les datacenters partagent des bonnes pratiques pour l’environnement

OVHCloud partage ses efforts environnementaux au sommet de l’Open Compute Project qui se tient à…

3 jours ago