Recherche

IA générative : AWS dévoile Amazon Bedrock

Amazon Bedrock fournit, via des API, un accès à des modèles pré-entraînés d'apprentissage automatique provenant de start-up. De quoi distinguer AWS ?

Publié par le - mis à jour à
Lecture
2 min
  • Imprimer
IA générative : AWS dévoile Amazon Bedrock

Comment se distinguer dans la course à l'IA ? Amazon Web Services (AWS) a dévoilé jeudi 13 avril Amazon Bedrock. Le service permet aux clients en entreprise, ou plutôt à leurs développeurs, de créer et mettre à l'échelle des applications basées sur l'intelligence artificielle générative, a indiqué le fournisseur cloud américain dans un billet de blog.

Disponible en « preview » limitée, Amazon Bedrock fournit, via des API, un accès à des modèles pré-entraînés d'apprentissage automatique (Few-Shot Models ou FM) provenant de start-up telles que AI21 Labs, Anthropic et Stability AI. L'accès au modèle Titan, une famille de modèles formés en interne par AWS, est aussi proposé.

« Nous travaillons sur nos propres grands modèles de langage (LLM) depuis un certain temps maintenant. Nous sommes convaincus que cela aura un impact considérable sur l'expérience client et nous continuerons à investir fortement dans ces modèles pour toutes les expériences impliquant des clients, des vendeurs, des marques et des créateurs », a déclaré le CEO d'Amazon, Andy Jassy, dans une lettre aux actionnaires publiée jeudi.

AWS couple LLM personnalisés et instance Trn1

Amazon promeut également ses propres puces d'IA, AWS Trainium et Inferentia, pour entraîner et exécuter ces modèles sur son cloud. Aussi, un nouveau type d'instance EC2, Trn1, alimentée par Trainium, permettrait d'économiser « jusqu'à 50% » sur les coûts de formation de modèles d'IA par rapport à n'importe quelle autre instance EC2, selon l'hyperscaler.

L'annonce fait suite au partenariat renforcé en début d'année entre AWS et Hugging Face. Par ailleurs, AWS a également confirmé le mois dernier un partenariat avec NVIDIA. Les deux groupes disent travailler au développement d'une infrastructure évolutive, en tant que service, optimisée pour la formation de modèles de langage (LLM) complexes. Plus récemment, AWS a lancé son accélérateur de start-up actives dans l'IA générative...

La concurrence n'est pas en reste. Microsoft, qui investit dans OpenAI (ChatGPT, DALL-E), et Google, qui promeut Bard, ont lancé tous deux des outils d'IA générative pour leurs plateformes cloud respectives. Microsoft a déployé Azure OpenAI Service en janvier dernier, Google Cloud a renforcé en mars ses capacités « intelligentes » de niveau professionnel.

(crédit photo © Adobe Stock)

Sur le même thème

Voir tous les articles Cloud

Livres Blancs #bigdata

Voir tous les livres blancs
S'abonner
au magazine
Se connecter
Retour haut de page