IA et LLM : Amazon investit 4 milliards $ dans Anthropic

Concurrente d’Open AI, la start-up californienne Anthropic se rapproche d’AWS pour accélérer le développement de son modèle LLM Claude. Amazon va aussi y investir jusqu’à 4 milliards $.

Coup de semonce dans le domaine de l’IA générative.  Anthropic, qui s’est jusqu’à présent affichée comme un partenaire de Google Cloud, annonce avoir signé un partenariat stratégique avec Amazon, la maison mère de AWS, leader mondial des fournisseurs de services Cloud.

« Anthropic choisit AWS comme principal fournisseur de cloud et formera et déploiera ses futurs modèles de base sur les puces AWS Trainium et Inferentia, en tirant parti des accélérateurs d’apprentissage automatique hautes performances et à faible coût d’AWS .» indique un communiqué.

Côté finances, le groupe de Jeff Bezos va investir jusqu’à 4 milliards $ contre une part (non dévoilée) du capital de la start-up  mais sans exiger de poste au conseil d’administration.

Dans un entretien avec Reuters, on apprend que l'investissement immédiat s'élèverait à 1,25 milliard $, chaque partie ayant le pouvoir de déclencher un financement supplémentaire de 2,75 milliards $ par Amazon.

Avec cet accord, AWS a trouvé un moyen de renforcer Bedrock, son offre d'IA présentée en avril dernier.

Des modèles Anthropic pour renforcer  Amazon Bedrock

« Les développeurs et ingénieurs d'Amazon pourront construire avec des modèles Anthropic via Amazon Bedrock afin d'intégrer des capacités d'IA générative dans leur travail, d'améliorer les applications existantes et de créer de nouvelles expériences client dans les activités d'Amazon..» expliquent les deux sociétés.

On devrait assister au renforcement du développement des modèles d'Anthropic pour fonctionner sur les puces Trainium d'AWS.

« AWS deviendra le principal fournisseur de cloud d'Anthropic pour les charges de travail critiques, y compris la recherche sur la sécurité et le développement futur de modèles de base. Anthropic prévoit d'exécuter la majorité de ses charges de travail sur AWS (...)».

Baptisée Claude, l'offre de la start-up est accessible via une web app, une intégration Slack et une API. Cette dernière  implique quelques exigences de formatage des requêtes. En particulier la définition des rôles « humain » et « assistant ». Ainsi que l’insertion de l’en-tête Content-Type: application/json (les arguments sont transmis sous forme d’objets JSON).

Claude accepte les requêtes structurées à l’aide de balises XML. On peut, entre autres, spécifier la longueur des réponses souhaitées et lui transmettre des consignes divisées en étapes.

AWS préféré à Google Cloud

L'annonce de l'accord AWS/Anthropic laisse toutefois planer un doute sur l'avenir du compagnonnage de la start-up avec Google Cloud engagé depuis le début 2023.

Ce dernier était présenté jusqu'à présent comme le « fournisseur cloud préféré » d’Anthropic et y investit, au passage, près de 400 M$* pour, disait-il à l'époque, « co-développer des systèmes IA ».

 

* Anthropic avait levé plus de 100 M$ en 2021. Il avait bouclé un autre tour de table au printemps 2022. Montant 580 M$. Une opération emmenée par le patron de FTX, plate-forme d’échange de cryptomonnaies… tombée depuis en faillite