AIRI de Nvidia et Pure Storage : une infrastructure IA ultra-puissante clé en main

ComposantsData & StockagePoste de travail

Pure Storage et Nvidia se fendent d’une nouvelle infrastructure baptisée AIRI destinée aux entreprises dans le cadre de développement IA à grande échelle.

Want create site? Find Free WordPress Themes and plugins.

Pure Storage et Nvidia ont développé la première infrastructure dite « AI-ready » pour le déploiement du machine learning (apprentissage automatique) à grande échelle.

Baptisée AIRI (pour AI-Ready Infrastructure), elle doit permettre aux organisations de transformer les données, en vue d’une exploitation dans le cadre de l’intelligence artificielle (IA). Il faut dire que le secteur de l’IA est en pleine effervescence. En France, le mathématicien et député En Marche Cédric Villani doit rendre son rapport sur le sujet. Plus globalement, 80 % des entreprises déploieront l’intelligence artificielle d’ici 2020, estime Gartner.

Présenté lors de la conférence GPU Technology de Nvidia à San Jose, en Californie, le système est une solution «entièrement intégrée» qui réduit la complexité de la création d’un environnement IA.

«L’IA est passée d’une technologie hypothétique future à un actif stratégique essentiel pour l’entreprise. L’adoption de l’IA dans tous les secteurs est de plus en plus répandue, ce qui entraîne de nouveaux modèles commerciaux, des propositions de valeur plus pointues, des processus plus efficaces et des expériences utilisateur personnalisées, »

estime Ritu Jyoti, directeur de la recherche, Infrastructure: Cognitive / AI et Big Data Analytics Workloads, au sein d’IDC.

AIRI associe une baie de stockage 100 % flash de type FlashBlade (boîtier 4U) avec quatre boîtiers GPU DGX-1 signés Nvidia, ainsi qu’une paire de commutateurs 100 Gb Ethernet d’Arista Networks.

Pas moins de 163 840 coeurs CUDA

Chacune des 15 lames verticales du FlashBlade embarque un processeur Intel Xeon, couplé à 17 To de mémoire flash, ainsi qu’un CPU à deux coeurs à technologie ARM, un FPGA, de la NVRAM et une interface PCIe.

Il s’agit d’alimenter en données les quatre systèmes DGX-1 qui consistent en des serveurs avec Intel Xeon couplé à 8 GPU Tesla V100. Chacun de ces GPU intègre 5120 coeurs CUDA, 640 coeurs Tensor, une mémoire cache de 16 Mo et 16 Go de mémoire HBM2 (dont la bande passante est de 900 Go/s).

Un tel GPU Tesla V100 peut atteindre une performance de 7,5 TFLOPS (calcul à 64 bits en virgule flottante) ou 15 TFLOPS (calcul à 32 bits en virgule flottante).

Au total, pourvu de 32 Tesla V100, l’AIRI embarque donc 163 840 coeurs CUDA ainsi que 20 480 coeurs Tensor.

Une infrastructure IA clé en main

Côté logiciel, l’infrastructure peut s’appuyer sur AIRI Scaling Toolkit développé par Pure Storage. De son côté, Nvidia met en avant Nvidia GPU Cloud, qui consiste en un ensemble de frameworks de développement d’IA populaires, tels que TensorFlow.

Tout cela doit permettre aux entreprises de mettre en place très rapidement un environnement permettant de former des réseaux neuronaux. «Les technologies innovantes de Pure Storage et de NVIDIA ont permis l’adoption accélérée de l’intelligence artificielle et, ensemble, elles offrent aux entreprises une solution optimisée, facile à utiliser et robuste pour toute charge de travail d’IA, » indique Ritu Jyoti.

Zenuity, une co-entreprise spécialisée dans la conduite autonome entre Volvo Cars et le fournisseur de systèmes de sécurité automobile Autoliv, est parmi les premiers grands groupes à adopter cette technologie.

(Crédit photo : @Pure Storage)

Did you find apk for android? You can find new Free Android Games and apps.

Lire aussi :