Hugging Face, faire-valoir d’AWS dans les IA génératives

AWS Hugging Face

En plein boom de ChatGPT, AWS remet en lumière son accord avec Hugging Face et sa plateforme de partage de modèles d’IA génératives.

Le saviez-vous ? AWS est le « fournisseur cloud préféré » de Hugging Face, qui édite une plate-forme de partage de modèles d’IA.

 Cela n’a rien de nouveau : il en est officiellement ainsi depuis début 2021. Les deux entreprises viennent toutefois de refaire passer le message, dans un langage « mi-nouveauté, mi-extension de partenariat ».

En fait de nouveauté, il n’y a pas grand-chose. Mais pour AWS, c’est une manière d’occuper un terrain qui s’incarne aujourd’hui dans la rivalité Google-Microsoft : celui des IA génératives. Elles sont d’ailleurs au cœur de son discours.

AWS pousse les modèles d’IA de Hugging Face

Le groupe américain effectue, au passage, un rappel concernant les manières d’exploiter les modèles Hugging Face sur son infrastructure cloud. Il en cite trois :

– Le hub SageMaker JumpStart
– Les tutoriels pour les puces Titanium (entraînement) et Inferentia (inférence)
– Les « conteneurs deep learning » (DLC)

Ces derniers furent le premier emblème de la relation AWS-Hugging Face. Ils en restent aujourd’hui une vitrine, aux côtés de l’intégration avec les bibliothèques SageMaker permettant la parallélisation des tâches.

Entre autres passerelles, il s’en est aussi créé une avec le SDK Python de SageMaker, pour faciliter l’exécution de scripts d’entraînement.

À consulter pour davantage de contexte :

ChatGPT : après le show Microsoft, un Google à réaction
Anthropic, réponse de Google à ChatGPT
De BigScience à BigCode : la quête d’IA génératives « éthiques »
Toolformer : l’esquisse d’une IA qui se cultive par API
OpenAI arrive au catalogue Azure : les choses à savoir

Photo d’illustration © Jimerb – Adobe Stock