Pour gérer vos consentements :

MLPerf s’ouvre aux LLM : Oracle et Microsoft au rendez-vous

Microsoft, NVIDIA, Oracle et Supermicro dans un mouchoir de poche ? Oui, dans le cadre d’un des tests du dernier benchmark MLPerf Inference.

Le test en question est une nouveauté. Son principe : résumer du texte sur le dataset CNN/DailyMail avec le modèle GPT-J 6B. Il marque l’entrée des LLM au sein dudit benchmark, quelques mois après l’intégration de l’IA générative dans MLPerf Training.

Les résultats de la catégorie principale (environnement datacenter, modèle imposé) sont présentés sur deux objectifs de qualité (99 % et 99,9 %). Ils sont par ailleurs séparés selon la méthode de chargement des requêtes : ou bien selon une distribution de Poisson (« serveur »), ou bien en lot (« hors ligne »).

Méthode serveur, précision 99 %

Sur cette configuration, le meilleur score revient à un système Supermicro. Doté de 2 Xeon Platinum 8468 et de 8 GPU H100 SXM-80, il a atteint 85,57 requêtes par seconde.

Un autre système Supermicro avec les mêmes GPU mais en EPYC 9554 a atteint 84,50 r/s. Une VM Azure ND H100 v5 (2 Xeon 8480C, même GPU) complète le podium, à 84,22 r/s.

Méthode hors ligne, précision 99 %

Le système Supermicro le plus performant en méthode serveur l’est aussi en méthode hors ligne. Il atteint 107,33 échantillons par seconde.

Arrive ensuite une VM Oracle (2 Xeon 8480+, toujours les mêmes GPU), mesurée à 106,69 é/s. Suit un NVIDIA DGX H100 (2 Xeon Platinum 8400C, mêmes GPU), à 106,32 é/s.

Méthode serveur, précision 99,9 %

On retrouve le même top 3 qu’à 99 % de précision. Les scores sont identiques, sauf pour le système Supermicro, légèrement moins performant (85,43 r/s).

Méthode hors ligne, précision 99,9 %

On prend les mêmes et on recommence… mais dans un autre ordre. La VM Azure s’en tire le mieux, à 107,56 é/s. Elle devance le principal système Supermicro et le serveur NVIDIA.

À consulter en complément :

OpenAI : gare à l’obsolescence
IA et données publiques : Google joue carte sur table
Comment Netflix a conçu son infrastructure de machine learning
Vers une pénurie de données d’entraînement pour l’IA ?
Formation et recherche en IA : ce qui gêne la Cour des comptes

llustration principale © KanawatVector – Adobe Stock

Recent Posts

AWS abandonne WorkDocs, son concurrent de Dropbox

Un temps pressenti pour constituer le socle d'une suite bureautique AWS, Amazon WorkDocs arrivera en…

3 jours ago

Eviden structure une marque de « serveurs IA »

Eviden regroupe cinq familles de serveurs sous la marque BullSequana AI. Et affiche le supercalculateur…

3 jours ago

SSE : l’expérience se simplifie plus que les prix

Le dernier Magic Quadrant du SSE (Secure Service Edge) dénote des tarifications et des modèles…

3 jours ago

IA générative : les lignes directrices de l’ANSSI

Formats de paramètres, méthodes d'apprentissage, mutualisation GPU... Voici quelques-unes des recommandations de l'ANSSI sur l'IA…

4 jours ago

De la marque blanche à l’« exemption souveraine », Broadcom fait des concessions aux fournisseurs cloud

À la grogne des partenaires VMware, Broadcom répond par diverses concessions.

4 jours ago

iPadOS finalement soumis au DMA

iPadOS a une position suffisamment influente pour être soumis au DMA, estime la Commission européenne.

4 jours ago