Pour gérer vos consentements :
Categories: Projets

IA : AWS lance son accélérateur de start-up

Amazon Web Services (AWS) a inauguré son accélérateur de start-up actives dans l’intelligence artificielle (IA) générative. Pour le lancement du programme, ce sont 10 jeunes pousses technologiques qui seront sélectionnées d’ici le 17 avril prochain.

Celles-ci auront accès à des modèles d’IA, aux bonnes pratiques de mise sur le marché et d’optimisation de la pile logicielle d’apprentissage automatique (machine learning ou ML).

Par ailleurs, les lauréats disposeront d’une enveloppe de crédits AWS (jusqu’à 300 000 $). Et ce pour concevoir des produits et services basés sur l’offre du fournisseur cloud américain.

AWS avec Hugging Face et d’autres

Les start-up sélectionnées bénéficieront de 10 semaines durant de l’appui technique des équipes AWS et d’un mentorat en IA/ML de spécialistes.

La première édition du programme d’accélération sera ouverte du 24 mai au 27 juillet 2023.

« Pour en bénéficier pleinement, les jeunes pousses doivent disposer d’un produit viable minimal (MVP) déjà développé, valider une certaine traction auprès des clients et travailler à améliorer leur proposition de valeur produit pour évoluer », a indiqué dans un billet de blog AWS.

L’hyperscaler affûte son positionnement.

En début d’année, le fournisseur cloud a emboîté le pas à Google et Microsoft en confortantson accord avec Hugging Face et sa plateforme de partage de modèles d’IA génératives. L’hyperscaler américain rappelait alors les manières d’exploiter les modèles Hugging Face sur son infrastructure cloud.

AWS a également confirmé le mois dernier un partenariat avec NVIDIA. Les deux groupes disent travailler au développement d’une infrastructure évolutive, en tant que service, optimisée pour la formation de modèles de langage (Large Language Model) complexes et la création d’applications « intelligentes » de nouvelle génération.

Hugging Face est impliqué. « Grâce aux progrès significatifs dans les grands modèles de langage et l’IA générative, nous travaillons avec AWS pour créer et contribuer aux modèles open source de demain », a expliqué Julien Chaumond, CTO et co-fondateur de Hugging Face. « Nous allons utiliser les instances Amazon EC2 P5 déployées à grande échelle, via Amazon SageMaker, dans des UltraClusters avec interface EFA afin d’accélérer la fourniture de nouveaux modèles d’IA fondamenaux de base pour tous. »

Recent Posts

OpenStack : la check-list SecNumCloud de l’ANSSI

Comment déployer OpenStack en conformité avec SecNumCloud ? L'ANSSI donne des options... en admettant certaines…

9 heures ago

Migration Cloud : FM Logistic déploie son infra VMware sur AWS

Le groupe de logistique français a mené un projet de Move to Cloud dont l’objectif…

15 heures ago

La stratégie GenAI d’Oracle se porte sur le low-code

La diffusion de l'IA générative dans l'offre d'Oracle se poursuit avec la dernière version d'APEX,…

15 heures ago

Du « sac à dos numérique » à La Suite Numérique : la DINUM rêve d’interconnexion

À travers La Suite Numérique, la DINUM a lancé un chantier d'interconnexion et d'extension du…

2 jours ago

IA : Meta retarde le lancement de ses LLM dans l’UE

Meta retarde le lancement de ses larges modèles de langage (LLM) Llama en Europe, après…

2 jours ago

Un malware piloté par émojis

Des campagnes cybercriminelles tirent parti d'un projet open source qui permet d'utiliser Discord en tant…

2 jours ago