Catégoriser les menaces contre les systèmes de machine learning : c’est l’objectif du projet open source Adversarial ML Threat Matrix.
L’organisation américaine MITRE, connue notamment pour maintenir le dictionnaire de vulnérabilités de sécurité CVE, supervise la démarche. Airbus, Bosch, IBM, Microsoft, NVIDIA et PwC sont les principales entreprises à s’y être jointes.
L’initiative s’inspire du framework ATT&CK, qui fait office de base de connaissances sur les menaces contre les logiciels. Elle en reprend la structure et la terminologie. Avec toutefois quelques différences. Notamment un code couleur qui distingue les techniques spécifiques aux modèles d’IA (en orange).
La matrice s’accompagne de « cas d’étude » sur des systèmes de production. Entre autres :
Toute démonstration d’une attaque qui affecte l’intégralité, la confidentialité ou la disponibilité des systèmes de machine learning est susceptible de rejoindre cette liste.
En la matière, on se souviendra de l’IA Inception de Google pour la reconnaissance d’images, trompée par la rotation d’objets. Ou encore du pilote automatique de Tesla, perturbé en conditions réelles dans l’identification du marquage au sol par la présence de morceaux d’adhésif blanc sur la chaussée.
Illustration principale © zapp2photo – Fotolia
Six ans après son premier bug bounty, le Département de la défense des Etats-Unis lance…
Des chercheurs attirent l'attention sur une campagne de diffusion de code malveillant par l'intermédiaire de…
La part des cadres de la fonction informatique qui bénéficient d'une hausse de rémunération retrouve…
À l'issue d'une procédure de six ans, le NIST a sélectionné quatre algorithmes à standardiser…
Le Parlement européen a définitivement adopté le DMA et le DSA ce 5 juillet. Des…
Snyk rejoint la liste de licornes de la cybersécurité qui réduisent leurs effectifs pour affronter…