Nvidia booste l’intelligence artificielle

DéveloppeursProjets
Neurone © Fedorov Oleksiy - Shutterstock
3 4 Donnez votre avis

L’Américain Nvidia promet des performances doublées lors de la création de réseaux de neurones sur des GPU, par rapport à la précédente génération de ses outils.

L’intelligence artificielle, un marché porteur pour les GPU de Nvidia ? C’est tout du moins ce qu’espère le constructeur américain, qui présente plusieurs avancées dans le secteur du Deep Learning.

Digits 2 permet d’associer plusieurs GPU dans le cadre de la définition de réseaux de neurones, avec des performances qui pourront être plus que doublées par rapport à l’utilisation d’un unique GPU. La librairie de code cuDNN 3 (Cuda Deep Neural Network) est également présentée. Elle offre de créer des réseaux de neurones de plus grande taille et plus performants.

Plus de données en mémoire grâce au FP16

Cette avancée est rendue possible par une optimisation du code, mais également par l’arrivée de données en virgule flottante de type FP16, permettant de stocker plus d’informations dans un espace mémoire fixe.

« Nous pensons que le mode de stockage FP16 des bibliothèques Nvidia nous permettra de graduer encore mieux nos modèles, puisqu’il augmentera la capacité de mémoire effective de notre hardware », confirme Bryan Catanzaro, chercheur chez Baidu Research.

Digits 2 est accessible gratuitement en version bêta au travers du programme développeurs de Nvidia. CuDNN 3 devrait pour sa part être intégré prochainement à des systèmes de Deep Learning comme Caffe, Minerva, Theano ou Torche.

À lire aussi :
IBM, Nvidia et Mellanox ouvrent un centre OpenPower en France
Nvidia GeForce GTX Titan X : 7 téraflops dans une carte graphique
Nvidia présente le plus puissant des composants ARM, le Tegra X1

Crédit photo : © Fedorov Oleksiy – Shutterstock

Lire la biographie de l´auteur  Masquer la biographie de l´auteur