PANAME : 18 mois pour industrialiser l'audit de confidentialité des LLM
L'ANSSI, la CNIL, le PEReN et le PEPR Cybersécurité projettent une bibliothèque logicielle qui unifiera l'évaluation de la confidentialité des modèles d'IA.

Face aux risques de régurgitation de données personnelles, où placer le curseur entre utilité et confidentialité ?
Le projet IPoP du PEPR* Cybersécurité s'est récemment intéressé à cet aspect des modèles de langage, avec un focus sur le domaine de la santé. Il s'est penché sur deux méthodes :
- MLM (Masked Language Modeling) pour spécialiser un modèle type BERT
- CLM (Causal Language Modeling) pour spécialiser un modèle type GPT
On le retrouve impliqué dans une initiative qui touche au même aspect : PANAME (Privacy Auditing of AI Models). La CNIL et l'ANSSI sont aussi dans la boucle. Comme le PEReN (Pôle d'expertise de la régulation numérique ; service interministériel). Objectif : développer, en 18 mois, une bibliothèque logicielle qui unifiera l'évaluation de la confidentialité des modèles d'IA. Elle sera, nous affirme-t-on, "disponible toute ou partie en source ouverte".
La CNIL assure le pilotage du projet et le cadrage juridique. L'ANSSI apporte son expertise cyber. L'IPoP assure la direction scientifique. PEReN est principalement chargé du développement de la bibliothèque.
Des techniques à passer en production
En toile de fond, un avis que le CEPD (Contrôleur européen de la protection des données) a émis fin 2024. Il y rappelle que le RGPD s'applique dans de nombreux cas aux modèles d'IA entraînés sur des données personnelles, justement en raison de leurs capacités de mémorisation. Dans ce contexte, pour conclure au caractère anonyme d'un modèle et ainsi le sortir du champ d'application du RGPD, il est très souvent nécessaire de démontrer la résistance à des attaques en confidentialité.
Les travaux à ce sujet sont souvent mis en oeuvre à un niveau expérimental, constatent les porteurs de PANAME. Les techniques élaborées, même lorsqu'elles disponibles en source ouverte, nécessitent un gros travail de développement pour être utilisées en production. Il n'existe, plus globalement, pas de cadre unifié pour formaliser le codage des tests de confidentialité.
Dans son dossier sur la sécurité des systèmes d'IA, le laboratoire de la CNIL évoque la confidentialité essentiellement en lien avec les techniques d'anonymisation. En particulier celle dite PATE (Private Aggregation of Teacher Ensembles). Avec elle, des modèles maîtres entraînent un modèle élèv par un vote majoritaire sur les sorties qu'ils produisent.
Les derniers travaux au sujet desquels le PEReN a communiqué dans le domaine de l'IA concernent l'usage de la méthode de recherche des plus proches voisins pour rattacher un contenu généré à du contenu original. En amont du Sommet de l'IA, le service interministériel avait ouvert les premières briques logicielles d'un outil d'évaluation des détecteurs de contenus artificiels.
* Programme prioritaire d'équipements de recherche
Illustration © bestforbest - Adobe Stock
Sur le même thème
Voir tous les articles Data & IA