Pour gérer vos consentements :
Categories: Cloud

Les instances GPU Amazon sont disponibles en Europe de l’Ouest

Les organisations européennes à la recherche de puissance de calcul et de capacité de parallélisation massive des ressources informatiques dans le cloud vont pouvoir accéder à l’offre d’instances GPU d’Amazon Web Services (AWS).

Le GPU (Graphics Processing Unit) ou processeur graphique, à la différence du CPU (Central Processing Unit) c’est-à-dire le processeur qui est au cœur de nos ordinateurs, présente la particularité d’offrir de grandes capacités de parallélisation des processus informatiques et applicatifs. Cette capacité inhérente au traitement des images et de la vidéo (décompression, recomposition des images) est aujourd’hui détournée au profit du HPC (High-Performance Computing), bref, du calcul.

Instances HPC sur Amazon EC2

Un utilisateur du cloud Amazon va pouvoir ouvrir jusqu’à 896 cœurs GPU par instance sur Amazon EC2 (Elastic Compute Cloud). Un cluster d’instances GPU peut également être lancé dans Amazon VPC (Virtual Private Cloud), la section privative et isolée du nuage AWS, qui peut adopter le HPC à la consommation via l’usage d’API (Application Programming Interfaces).

Les principales applications avancées par Amazon sont l’ingénierie assistée par ordinateur, la modélisation moléculaire, l’analyse du génome et la modélisation numérique. Plus industriels sont le transcodage vidéo (pour la compression et la décompression) ou le rendu de surfaces 3D.

Grappes d’instances GPU dans le cloud

Comme l’indique Amazon, HPC sur Amazon EC2 est activé par la famille de grappe des types d’instances. Les instances grappe de calcul et grappe de GPU peuvent être utilisées comme n’importe quelle autre instance Amazon EC2, mais offrent également les fonctions optimisées pour les applications HPC.

Les instances grappe peuvent par exemple être lancées dans un groupe d’emplacements dynamiques et redimensionnables. Toutes les instances ont une faible latence et une bande passante non-bloquante de 10 Gb/s entre les instances. Il est également possible de connecter plusieurs groupes d’emplacements pour créer de très grandes grappes pour un traitement massivement parallèle.

Les instances de grappe de GPU donnent accès aux performances parallèles des GPU Nvidia Tesla qui utilisent les modèles de programmation CUDA et OpenCL pour le calcul GPGPU.

Quant au prix, il faudra de nouveau se plonger dans la tarification d’AWS pour tenter de simuler une approche budgétaire…


Voir aussi
Quiz Silicon.fr – Le vocabulaire du cloud

Recent Posts

Ce qui change avec la version 2024 du référentiel d’écoconception de services numériques

Un an et demi après sa publication initiale, le RGESN est mis à jour. Tour…

3 heures ago

Microsoft x Mistral AI : l’Autorité britannique de la concurrence renonce à enquêter

Le régulateur britannique de la concurrence renonce à une enquête approfondie sur le partenariat de…

5 heures ago

MFA obligatoire sur Azure : ce que prépare Microsoft

À partir de juillet 2024, Microsoft imposera progressivement le MFA pour certains utilisateurs d'Azure. Aperçu…

9 heures ago

Informatique quantique : Pasqal vend un premier ordinateur en Arabie Saoudite

La pépite française de l'informatique quantique Pasqal va installer un ordinateur quantique de 200 qubits…

10 heures ago

Incident « sans précédent » chez Google Cloud : que s’est-il passé ?

Le fonds de pension australien UniSuper a vu son abonnement Google Cloud supprimé - et…

11 heures ago

GPT-4o : où, quand et pour qui ?

OpenAI orchestre un déploiement très progressif de GPT-4o, y compris de ses capacités multimodales.

3 jours ago