PME : mesurez-vous aux plus grands !

De nouvelles solutions HPE pour le Deep Learning

Avec le Machine Learning, l’intelligence artificielle s’est imposée dans les entreprises. Mais l’essor du Deep Learning pose un défi de taille aux DSI en termes de puissance de calcul. HPE mise sur le GPU pour y faire face.

Plus une entreprise ne peut aujourd’hui se passer de l’intelligence artificielle. Que ce soit le marketing pour segmenter les clients, personnaliser les offres, la Supply Chain qui se voit optimisée grâce à de nouveaux algorithmes ou encore le service commercial qui exploite une IA pour ses prévisions de ventes. Dernière tendance en date, le Deep Learning repousse un peu plus loin les limites et élargit encore les applications de l’IA en entreprise.

Néanmoins, ces algorithmes brassent d’énormes quantités de données et l’apprentissage des réseaux de neurones consomme une puissance machine colossale. Outre les coûts d’acquisition, mais aussi les coûts de fonctionnement de clusters de dizaines de machines, l’IA se traduit par une facture informatique en nette hausse.

Déporter les calculs vers les GPU

Face à cette problématique, alors que les budgets IT restent inchangés d’année en année, HPE a fait le choix de la rupture technologique et, plutôt que d’accroitre indéfiniment le nombre de nœuds de calcul CPU, l’américain mise sur l’approche GPU. En effet, les GPU présentent un nombre très élevé de nœuds de calcul qui, s’ils ne sont pas compatibles x86, sont parfaits pour émuler des neurones logiciels exploités en Machine Learning et Deep Learning.

Depuis l’acquisition récente du prestigieux constructeur SGI, HPE dispose de l’implémentation SGI de l’architecture d’interconnexion de GPU dense Nvidia NVLink. Celle-ci permet de créer des clusters de calcul pouvant compter des milliers de cœurs GPU. Les échanges entre ces nœuds de calcul sont accélérés d’un facteur de 5 à 12 fois comparé au bus PCI Express classique.

Une telle multiplication de nœuds de calcul interconnectés par un bus haute vitesse permet de faire tourner des algorithmes de Deep Learning temps réel sans devoir multiplier le nombre de serveurs et de CPU Xeon. L’approche a de quoi séduire tant dans la banque que le retail ou l’industrie.

Une architecture GPU dense

Disposant d’un refroidissement liquide, le HPE SGI Apollo 8600 se destine au calcul intensif. Chaque rack Apollo 8000 peut accueillir 72 serveurs HPE ProLiant XL730f/XL750f Gen9 avec deux cartes GPU Nvidia Tesla K40 XL. De quoi constituer une puissance de calcul considérable en dépit d’un faible espace occupé dans le datacenter.

Cette approche GPU haute densité n’est pas réservée aux entreprises qui ont besoin de telles capacités de calcul. Les HPE SGI Apollo 2000, Apollo 6500 et ProLiant DL380 supportent les nouvelles architectures de GPU et vont pouvoir faire tourner des réseaux de neurones.

Les relations étroites qu’entretiennent HPE et Nvidia permettront aux utilisateurs HPE de bénéficier dès le quatrième trimestre 2017des dernières nouveautés du concepteur de composants, notamment les futures cartes Tesla P100 SXM2 qui contiendront 8 GPU d’architecture Volta. De quoi faire face à la montée en puissance du Deep Learning plus que sereinement.