Catégoriser les menaces contre les systèmes de machine learning : c’est l’objectif du projet open source Adversarial ML Threat Matrix.
L’organisation américaine MITRE, connue notamment pour maintenir le dictionnaire de vulnérabilités de sécurité CVE, supervise la démarche. Airbus, Bosch, IBM, Microsoft, NVIDIA et PwC sont les principales entreprises à s’y être jointes.
L’initiative s’inspire du framework ATT&CK, qui fait office de base de connaissances sur les menaces contre les logiciels. Elle en reprend la structure et la terminologie. Avec toutefois quelques différences. Notamment un code couleur qui distingue les techniques spécifiques aux modèles d’IA (en orange).
La matrice s’accompagne de « cas d’étude » sur des systèmes de production. Entre autres :
Toute démonstration d’une attaque qui affecte l’intégralité, la confidentialité ou la disponibilité des systèmes de machine learning est susceptible de rejoindre cette liste.
En la matière, on se souviendra de l’IA Inception de Google pour la reconnaissance d’images, trompée par la rotation d’objets. Ou encore du pilote automatique de Tesla, perturbé en conditions réelles dans l’identification du marquage au sol par la présence de morceaux d’adhésif blanc sur la chaussée.
Illustration principale © zapp2photo – Fotolia
Le Cigref et Kaspersky co-président un groupe de travail de l'Appel de Paris consacré au…
Google Cloud expérimente un produit d'assurance cyber à souscrire depuis sa console d'admin, à partir…
Malveillantes ou accidentelles, les fuites de données augmentent avec la généralisation du télétravail. Temps, ressources,…
Linux Mint revoit le fonctionnement de son gestionnaire de mises à jour. La question de…
AWS fait son entrée au Magic Quadrant de la BI. Le trio Microsoft-Tableau-Qlik domine toujours…
Pointé du doigt pour l'usage de modules de suivi dans son application Android, LastPass se…