Pour gérer vos consentements :

Microsoft et Facebook lancent des serveurs GPU dédiés l’IA

Les besoins de puissance nécessaires aux calculs de l’intelligence artificielle ne cessent d’augmenter. Des besoins qui demandent aujourd’hui des outils personnalisés pour amener cette puissance dans les datacenters dits hyperscale (à très grande échelle) des géants du Cloud. Dans cet esprit, Microsoft et Facebook ont profité du Open Compute Summit qui se déroulait cette semaine à Santa Clara en Californie pour présenter chacun leur tour de nouvelles architectures de serveur à base de GPU (processeurs graphiques). En l’occurrence, des Tesla P100 de Nvidia. Deux projets versés à l’Open Compute Project (OCP), il va sans dire.

Avec HGX-1, Microsoft a choisi d’intégrer 8 Tesla P100 dans un châssis réparti sur 4 connecteurs PCIe, un réseau maillé interne NVLink et un gestionnaire de fabric pour router le trafic à travers les connexions appropriées. De quoi fournir une puissance de 80 teraflops en simple précision et plus de 160 Tflops en demi-précision. Les nombres flottants sont bien adaptés au secteur de l’IA.

Une solution inspirée de l’offre DGX-1 de Nvidia

La solution, assez proche de l’offre DGX-1 de Nvidia, se destine notamment au traitement via des réseaux neuronaux (deep learning), de l’analyse des données (Big Data) et autres types de calculs gourmands en puissance. Elle entre dans le cadre du projet Olympus de Redmond pour alimenter les datacenters hyperscale. Une puissance GPU qui pourra être exploitée de manière brute par les développeurs ou en complément d’une capacité de calcul « traditionnelle » (CPU). Quatre châssis peuvent être assemblés afin de fournir jusqu’à 32 GPU. Ingrasys, la filiale de Foxconn, s’inscrit comme le premier fournisseur du HGX-1.

De son côté, Facebook a présenté Big Basin, une solution somme toute assez similaire à l’HGX-1 avec, là aussi, 8 GPU et un réseau maillé interne tel qu’utilisé dans le DGX-1. Un serveur à base de CPU pourra néanmoins se relier au boîtier à partir d’un ou plusieurs câbles PCIe. Facebook annonce avoir doublé la puissance de calcul par rapport à Big Sur, le précédent serveur dédié à l’IA, sur du calcul de modèle de classification d’images. Big Basin sera, lui, fabriqué par Quanta Cloud Technology.

Fort de l’adoption de ses composants dans les serveurs hyperscale, Nvidia a profité de l’événement pour annoncer avoir rejoint l’OCP.


Lire également
Pour son Cloud, Microsoft met ARM en concurrence avec le x86
Les leçons d’intelligence artificielle de Facebook

Recent Posts

Legapass : comment protéger ses données privées jusque dans l’au-delà

Comment gérer les données numériques après la mort de son détenteur ? La jeune pousse…

3 jours ago

Iris, un assistant d’IA conversationnelle en langue des signes

Ivès, expert en accessibilité de la surdité, s’est associé à Sopra Steria et à IBM…

3 jours ago

GenAI : le Royaume-Uni poursuit ses investigations sur les partenariats de Microsoft et Amazon

L'Autorité de la concurrence et des marchés (CMA) a lancé la phase de recherche de…

4 jours ago

Clients de VMware : les raisons de la colère

Broadcom remplace pas moins de 168 logiciels VMware par deux grandes licences de location correspondant…

4 jours ago

Laurent Carlier – BNP Paribas Global Market : « L’IA permet de modéliser des relations plus complexes, mais il faut rester prudent »

La banque d’investissement utilise l'IA pour proposer des stratégies individualisées, en termes de rendement et…

4 jours ago

Open Compute Project : les datacenters partagent des bonnes pratiques pour l’environnement

OVHCloud partage ses efforts environnementaux au sommet de l’Open Compute Project qui se tient à…

5 jours ago