Databricks, une vitrine de plus pour Mistral AI

Databricks Mistral AI

Au tour de Databricks de communiquer sur son intégration des modèles de Mistral AI. Comment se présente-t-elle ?

Qui n’a pas encore intégré des modèles Mistral AI à son catalogue ? Depuis quelque temps, les sociétés technologiques multiplient les annonces à ce sujet*… en tout cas à l’adresse du marché français. Databricks vient de rejoindre la liste.

Comme Snowflake la semaine passée, il a choisi d’officialiser, en parallèle, sa participation au tour de table de série A de Mistral AI. Une opération de financement que la start-up avait révélée en décembre. Montant alors communiqué : 385 M$. On avait appris, à cette occasion, que BNP Paribas, CMA-CGM et Salesforce, entre autres, étaient dans la boucle.

Mistral AI + Databricks : comment ça marche ?

L’accord avec Snowflake s’est traduit par l’intégration des modèles ouverts de Mistral AI sur le service Cortex. Ainsi que par la disponibilité de Mistral Large sur le Data Cloud.

Pas de Mistral Large chez Databricks, mais les modèles ouverts. À savoir Mistral 7B et Mixtral 8x7B – versions Instruct comprises. L’un et l’autre sont disponibles sur la marketplace, où ils voisinent avec près d’une centaine d’autres modèles.

Principal canal pour les utiliser : l’API Foundation Model. Pour y accéder, plusieurs options : le client OpenAI, l’UI Databricks ou les SDK Python et MLflow.
Les endpoints sont également accessibles sur Databricks SQL avec la fonction ai_query. Et dans la console (AI Playground).

Seul Mixtral-8x7B Instruct est compatible avec la facturation à l’usage (par token). Pour les autres, il faut sélectionner l’option « débit provisionné ». Elle implique la création d’endpoints avec garanties de performances. On la sélectionnera aussi si on souhaite ajuster des modèles. Ce qui est faisable Mistral 7B et Mixtral 8x7B.

* Fin 2023, Google Cloud avait annoncé, dans la foulée de l’intégration de Mistral 7B, un partenariat par lequel il allait fournir de l’infrastructure à Mistral AI.
Fin février, Microsoft avait annoncé un « partenariat pluriannuel ». Là aussi axé notamment sur la fourniture de capacités de calcul, il s’est assorti d’une prise de participation minoritaire.
IBM a lui aussi communiqué fin février, pour annoncer l’arrivée de Mixtral 8x7B sur watsonx. AWS a suivi, pour officialiser l’intégration des modèles ouverts de Mistral AI sur Amazon Bedrock.

Illustration © Yan – Adobe Stock