Pour gérer vos consentements :
Categories: Cloud

Les instances GPU Amazon sont disponibles en Europe de l’Ouest

Les organisations européennes à la recherche de puissance de calcul et de capacité de parallélisation massive des ressources informatiques dans le cloud vont pouvoir accéder à l’offre d’instances GPU d’Amazon Web Services (AWS).

Le GPU (Graphics Processing Unit) ou processeur graphique, à la différence du CPU (Central Processing Unit) c’est-à-dire le processeur qui est au cœur de nos ordinateurs, présente la particularité d’offrir de grandes capacités de parallélisation des processus informatiques et applicatifs. Cette capacité inhérente au traitement des images et de la vidéo (décompression, recomposition des images) est aujourd’hui détournée au profit du HPC (High-Performance Computing), bref, du calcul.

Instances HPC sur Amazon EC2

Un utilisateur du cloud Amazon va pouvoir ouvrir jusqu’à 896 cœurs GPU par instance sur Amazon EC2 (Elastic Compute Cloud). Un cluster d’instances GPU peut également être lancé dans Amazon VPC (Virtual Private Cloud), la section privative et isolée du nuage AWS, qui peut adopter le HPC à la consommation via l’usage d’API (Application Programming Interfaces).

Les principales applications avancées par Amazon sont l’ingénierie assistée par ordinateur, la modélisation moléculaire, l’analyse du génome et la modélisation numérique. Plus industriels sont le transcodage vidéo (pour la compression et la décompression) ou le rendu de surfaces 3D.

Grappes d’instances GPU dans le cloud

Comme l’indique Amazon, HPC sur Amazon EC2 est activé par la famille de grappe des types d’instances. Les instances grappe de calcul et grappe de GPU peuvent être utilisées comme n’importe quelle autre instance Amazon EC2, mais offrent également les fonctions optimisées pour les applications HPC.

Les instances grappe peuvent par exemple être lancées dans un groupe d’emplacements dynamiques et redimensionnables. Toutes les instances ont une faible latence et une bande passante non-bloquante de 10 Gb/s entre les instances. Il est également possible de connecter plusieurs groupes d’emplacements pour créer de très grandes grappes pour un traitement massivement parallèle.

Les instances de grappe de GPU donnent accès aux performances parallèles des GPU Nvidia Tesla qui utilisent les modèles de programmation CUDA et OpenCL pour le calcul GPGPU.

Quant au prix, il faudra de nouveau se plonger dans la tarification d’AWS pour tenter de simuler une approche budgétaire…


Voir aussi
Quiz Silicon.fr – Le vocabulaire du cloud

Recent Posts

ChatGPT : le Financial Times signe avec OpenAI

FT Group, éditeur du Financal Times, a signé un accord avec OpenAI afin d'utiliser ses…

2 jours ago

Les hyperscalers renforcent leurs recherches et datacenters pour l’IA

Au premier trimestre, Microsoft, Meta/Facebook et Alphabet/Google ont déjà investi plus de 32 milliards $…

2 jours ago

Cybersécurité : Darktrace dans l’escarcelle de Thoma Bravo

La société britannique de cybersécurité Darktrace a accepté une offre de rachat de 5,32 milliards…

3 jours ago

Étude Trends of IT 2024 : comment les managers IT développent leurs projets

Silicon et KPMG lancent la deuxième édition de l'étude Trends of IT. Cette édition 2024…

3 jours ago

Atos : l’Etat veut acquérir les activités souveraines

Le ministère de l'économie a adressé une lettre d'intention à la direction d'Atos pour racheter…

3 jours ago

Arnaud Monier – SNCF Connect & Tech : « Notre moteur, c’est l’innovation et nous procédons par incrémentation »

Directeur Technologie de SNCF Connect & Tech, Arnaud Monier lance une campagne de recrutement pour…

3 jours ago