IA et données publiques : Google joue carte sur table

Google IA données publiques

Google affiche désormais, au plus haut niveau de sa politique de confidentialité, le droit qu’il se réserve d’utiliser des données publiques pour entraîner ses modèles d’IA.

Une forme de transparence chez Google ? Depuis quelques jours, ses règles de confidentialité en disent en tout cas davantage sur l’utilisation des données publiques.

Il faut plus précisément consulter la version PDF. Plus complète que la version web, elle comporte notamment une section « Contexte supplémentaire ». Il s’y trouve un paragraphe « Sources accessibles publiquement ». Y figure la mention suivante :

Nous pouvons collecter des informations disponibles publiquement en ligne ou auprès d’autres sources publiques pour contribuer à l’entraînement des modèles d’IA de Google, et concevoir des produits et des fonctionnalités comme Google Traduction, Bard et les capacités d’IA de Cloud.

Cette information apparaît donc désormais au plus haut niveau de la documentation juridique publique de Google. Et pas qu’en France (témoin, par exemple, la version US des règles de confidentialité). Une particularité face, entre autres, à Microsoft.

Ce dernier ne fait pas de référence à ses modèles d’IA dans sa déclaration de confidentialité. Il explique tout de même recueillir des données de sources tierces dont « des publications publiques sur des réseaux sociaux ». Et mentionne aussi « les sources accessibles au public, telles que les ensembles de données ouvertes du secteur public, universitaires et commerciales et d’autres sources de données ».

Google a-t-il ouvert une voie ?

Pas davantage de références à des modèles d’IA chez Amazon, aussi bien dans la version américaine de sa « notice de protection des informations personnelles » (mise à jour en juin) que dans la version française (mars). Il faut dire que dans l’absolu, c’est la filiale AWS qui développe les principaux modèles d’IA qu’on associe aujourd’hui au groupe américain – en l’occurrence, Bedrock et CodeWhisperer.

Pour autant, AWS n’en dit pas plus dans son « avis concernant la protection des données ». Tant dans la version US que dans sa traduction en français. Y est repris le même schéma que chez Amazon, avec une section « Exemples de données collectées » et trois sous-sections dont une intitulée « Données provenant d’autres sources ».

OpenAI lui-même n’aborde pas la question au plus haut niveau de sa politique de confidentialité. Il en dit davantage dans ses conditions d’utilisation.  Dans les grandes lignes, il se réserve le droit d’utiliser du contenu issu de services autres que son API pour améliorer son offre.

De quels services est-il question au juste ? OpenAI semble parler uniquement des siens. D’où un double renvoi. D’une part, vers son formulaire d’opposition au traitement de données. De l’autre, vers un des articles de sa FAQ : « Comment nous utilisons vos données pour améliorer les performances de nos modèles ». Nulle part il n’y est question de données publiques.

À consulter pour davantage de contexte :

Amazon Bedrock : la réponse d’AWS à ChatGPT
CodeWhisperer : les choses à savoir sur ce concurrent de GitHub Copilot
Bard lancé dans le bain du codage : premiers retours
Bard, ChatGPT et leurs limites de raisonnement

Photo d’illustration © swillklitch – Adobe Stock