Recherche

NVIDIA GTC Paris : du workspace à l'AI Factory, une offre ultra-transversale

NVIDIA cherche à s'affirmer sur l'ensemble de la chaîne de production et d'exploitation de l'IA, avec des initiatives ciblées en Europe.

Publié par Clément Bohic le | Mis à jour le
Lecture
5 min
  • Imprimer
NVIDIA GTC Paris : du workspace à l'AI Factory, une offre ultra-transversale

En Europe, la pénurie de GPU ne sera bientôt plus qu'un mauvais souvenir. NVIDIA en a pris l'engagement lors de la GTC Paris - première du nom - organisée en marge de la 9e édition de VivaTech à Paris.

En toile de fond, une vingtaine de projets d'AI factories. Essentiellement dans le voisinage de centres de calcul publics (GRNET en Grèce, CINECA en Italie, LuxProvide au Luxembourg...). Jensen Huang l'affirme : "En deux ans [2024-2026, ndlr], on aura décuplé la capacité de calcul IA disponible en Europe".

Ces "usines IA" doivent s'assortir de "centres technologiques", pour le moment annoncés dans 7 pays (France, Allemagne, Espagne, Finlande, Italie, Royaume-Uni, Suède). Leur rôle, dans les grandes lignes : créer du liant au sein des écosystèmes nationaux. Dans sa cartographie, NVIDIA inclut développeurs, chercheurs, start-up, grandes entreprises, formateurs (upskillers) et fournisseurs de ressources GPU ; ainsi qu'une couche plus "transversale" comprenant CSP, ISV, intégrateurs, acteurs de l'AIOps et fournisseurs de compute/stockage/réseau.
Pour la France, le groupe américain avance le mapping suivant :

> Développeurs : Aveva, Schneider Electric, Ubisoft
> Chercheurs : CNRS, EPITA, GENCI, Sorbonne Université
> Start-up : Exotec, H, Hugging Face, Kyutai, LightOn, Mistral AI, Photoroom
> Grandes entreprises : BNP Paribas, EDR, L'Oréal, Schneider Electric, SNCF, Stellantis, TotalEnergies
> Formateurs : Capgemini, Sopra Steria
> Fournisseurs de ressources GPU : Mistral AI, Orange, OVHcloud, Scaleway

Bye-bye Hopper, place à Grace Blackwell

NVIDIA

Point d'orgue de l'infrastructure promise : les systèmes Grace Blackwell NVL72. NVIDIA les livre actuellement équipés de ses puces GB200 (GB300 à venir). Il en produit environ un millier par semaine. Chaque unité pèse près de 2 tonnes, consomme 120 KW et coûte quelque 3 M$.

Ces superordinateurs prennent la suite des systèmes Hopper. Ils unifient les noeuds CPU et GPU (apport des puces Grace Blackwell)... et déportent la connectivité NVLink dans un rack spécifique. L'ensemble est connecté par une "colonne vertébrale" (5000 câbles cuivre) offrant 130 To/s de bande passante ("davantage que le débit d'Internet lors des pics de trafic", glisse Jensen Huang).

NVIDIA présente le système Grace Blackwell tantôt comme un "GPU virtuel géant", tantôt comme une "machine à penser". Il faut y voir une allusion à l'émergence des modèles de raisonnement. Qui, dans l'absolu, nécessitent davantage de capacités de calcul, tout du moins pour l'inférence.

Nœuds de calcul (à gauche) et NVLink (à d.). En arrière-plan, la "colonne vertébrale".


Nemotron, tremplin vers la robotique et l'agentique

NVIDIA fait aussi volontiers le lien avec le développement des jumeaux numériques. En la matière, la plate-forme Omniverse est son porte-drapeau. BMW, Bouygues, Mercedes-Benz, Siemens et la SNCF font partie des entreprises qui l'utilisent en Europe.

SI ces jumeaux numériques sont photoréalistes et respectent les lois de la physique, c'est en particulier pour que des robots puissent s'en nourrir, nous assure-t-on. Dans ce domaine, NVIDIA a aussi sa stack, avec la plate-forme de développement Isaac associée à l'ordinateur Jetson Thor et à des modèles d'IA qui génèrent du mouvement à partir des données de capteurs.

Jetson Thor dev kit


Une partie de ces modèles sont de la famille Nemotron. Sous cette bannière, NVIDIA améliore - et permet à des tiers d'améliorer - des modèles ouverts. Par exemple en spécialisant leurs connaissances, en étendant leur fenêtre de contexte ou en leur conférant des capacités de raisonnement. En Europe, des entreprises comme Bielik, DictaAI, Domyn, LightOn, NAISS et Utter s'en servent pour la localisation linguistique et culturelle. Perplexity entend donner accès à certains dans son moteur de recherche.

Des modèles Nemotron alimentent par ailleurs le framework Enterprise AI Agent Platform. Celui-ci inclut également une brique RAG (NeMo Retriver), un blueprint d'agent généraliste (AI-Q) et un toolkit (outils de préparation de donnée, d'entraînement, d'affinage, d'évaluation, de déploiement, etc.).

Informatique quantique : NVIDIA avance l'argument GPU

Pour mettre en oeuvre les systèmes agentiques, généralement architecturés en microservices, NVIDIA a structuré une réponse nommée DGX Lepton. Issue d'une acquisition, elle agrège des ressources de calcul, des mini-PC DGX Spark aux infrastructures des hyperscalers. DeepL y a recours, comme, notamment, IQVIA (traitement des données de santé), Photoroom et Qodo (assistant de code). Hugging Face l'a intégrée sur son interface.

Entre les solutions desktop (DGX Spark, DGX Station) et les Grace Blackwell NVL72, NVIDIA maintient un catalogue de systèmes x86. D'un côté, les serveurs DGX B200/B300 avec GPU Blackwell. De l'autre, la gamme RTX PRO (laptops, stations de travail et serveurs) avec cartes Blackwell RTX 6000.

La GTC Paris a été l'occasion d'officialiser le portage de la stack CUDA-Q sur les puces GB200. En ligne de mire, des systèmes informatiques hybrides (ordinateurs classiques + quantiques) où les GPU géreront, entre autres, le prétraitement, le contrôle et la correction d'erreurs.

CUDA-Q fait partie de la suite CUDA-X, qui réunit des microservices et des bibliothèques spécialisées parmi lesquelles :

> cuOpt (optimisation combinatoire)
> cuDNN et Dynamo (accélération des réseaux de neurones et distribution des workloads d'inférence)
> cuDF et cuML (accélération de Spark et de scikit-learn)
> Earth-2 (simulation météorologique et climatique)
> MONAI (imagerie médicale)
> Parabricks (analyse du génome)

Sur le même thème

Voir tous les articles Data & IA
S'abonner
au magazine
Se connecter
Retour haut de page