De BigQuery à Vertex AI, comment l’IA générative infuse chez Google Cloud

Google Cloud IA générative

Coup d’œil sur quelques fonctionnalités touchant à l’IA générative récemment ouvertes à l’expérimentation ou passées en phase commerciale sur Google Cloud.

Que peut-on faire dans un outil de BI avec un assistant « à la ChatGPT » ? Créer des rapports, des présentations, des formules ou du code, par exemple. C’est ce que Google envisage pour Looker… une fois qu’il y aura intégré Duet AI.

En la matière, d’autres produits ont la priorité. BigQuery en fait partie. On peut désormais y expérimenter Duet AI pour compléter, générer et expliquer des requêtes SQL*.

On retrouve aussi Duet AI dans Colab Enterprise. Cette offre est elle aussi en phase expérimentale (disponibilité globale prévue pour septembre). Elle reprend le socle Colab et y ajoute, entre autres, de l’IAM, un stockage régional des notebooks sur Dataform (et non dans Drive) avec gestion des versions, de la découverte de données (Dataplex)… et donc Duet AI, pour la complétion de code.

Google a aussi connecté Duet AI à son système de journalisation Cloud Logging, pour résumer des entrées.

L’apprentissage supervisé se répand sur Vertex AI

Au rang des fonctionnalités expérimentales touchant de plus ou moins près à l’IA générative, on peut aussi expérimenter, sur BigQuery, des fonctions de vectorisation de texte, avec les modèles NNLM, SWIVEL et BERT. Ainsi que l’option DataFrames, qui fournit des API pour l’analyse de données (compatible Pandas) et le machine learning (de type scikit-learn).

Dans la « boîte à outils » Vertex AI, on trouve aussi un nouveau modèle « maison » de vectorisation. Il est en preview tout comme :

– Apprentissage supervisé pour les modèles chat-bison, code-bison et codechat-bison

– Apprentissage par renforcement avec rétroaction humaine (RLHF) pour le modèle text-bison

– Synchronisation du registre et des datasets avec le catalogue de données de Dataplex

– API CountToken pour estimer le nombre de tokens dans une requête

– Sur le modèle Imagen, option d’apposition et de contrôle de filigrane fondée sur la technologie SynthID de DeepMind

Des moteurs de recherche à base d’IA générative

L’apprentissage supervisé pour text-bison est un peu en avance de phase : Google vient d’en annoncer la disponibilité générale. Ont atteint ce même stade en parallèle ou presque :

– Possibilité d’entraîner le modèle Imagen pour qu’il respecte un style

– Réponse « en flux » pour text-bison, chat-bison, code-bison et codechat-bison (les modèles retournent les tokens à mesure qu’ils sont générés, sans attendre l’output complet)

– Galerie de modèles de pipelines Vertex AI

– Prise en charge du framework Ray

– Modèles de langage supplémentaire, dont certains avec 32k tokens de fenêtre de contexte

Disponibilité générale également pour l’offre Generative AI App Builder, renommée pour l’occasion Vertex AI Search and Conversation.

Dans la partie Search, il y a un outil de création de moteurs de recherche à base d’IA générative. Google y a récemment intégré la prise en charge des sessions de recherche (prise en compte des requêtes précédentes). Il permet aussi, désormais, de choisir un hébergement global, US multirégion ou UE multirégion pour les nouveaux magasins de données. À noter également du neuf sur les extraits ajoutés aux recherches. En particulier, la capacité à fournir les numéros de pages des documents dont proviennent ces extraits.

Le scoring de pertinence des extraits est encore en preview. Comme la suggestion de questions associées.

* Google propose aussi d’expérimenter une fonction de même type dans son service de migration de bases de données, pour la conversion Oracle -> PostgreSQL.

Illustration principale © Araki Illustrations – Adobe Stock