Pour gérer vos consentements :

Deep learning : comment réduire l’effet « boîte noire » ?

Comment justifier les résultats que produisent les réseaux de neurones artificiels ? Deux écoles de pensée se distinguent. L’une se fonde sur des méthodes d’explication a posteriori. L’autre, sur des modèles « intrinsèquement interprétables ».

Trois chercheurs ont récemment publié un rapport fruit de travaux relevant de la seconde approche. Ils l’ont appliquée à la vision par ordinateur. Avec, comme levier, une transformation linéaire commune en data science : le blanchissement. Et comme cible, l’espace latent, où les réseaux neuronaux représentent les concepts qu’ils apprennent.

La démarche implique de modifier légèrement l’architecture du modèle qu’on souhaite interpréter. On y intègre pour cela un module qui  normalise et décorrèle les axes de l’espace latent afin que les concepts s’y alignent. En contraignant ainsi cet espace, on évite la dissémination des informations relatives aux concepts. Et on peut donc potentiellement mieux comprendre, de couche en couche, comment le modèle les assimile.

a : non normalisé ; b : non décorrélé ; c : normalisé et décorrélé

Deep learning : échange transparence contre performance ?

Ce n’est pas, et de loin, la première initiative consistant à modifier la structure de modèles de deep learning pour les rendre plus « lisibles ». Mais dans le cas présent, on nous avance, benchmarks à l’appui, un atout : une dégradation quasi nulle des performances. De l’ordre de quelques dixièmes de pourcent en l’occurrence.

Les chercheurs ont exploité le jeu de données MS COCO pour apporter des concepts d’intérêt destinés à structurer l’espace latent. Puis ils ont mis à l’épreuve des algorithmes populaires de deep learning. Avec les résultats ci-dessus (produits sur le jeu de données Places365).

Sur les couches les plus basses des réseaux neuronaux, limitées en complexité, les concepts ont tendance à reposer sur des informations « primaires » comme la texture et la couleur. Plus on descend, plus les images qui les représentent sont sémantiquement proches. On le voit ci-dessous pour les concepts d’avion, de lit et de personne.

Illustration principale © psdesign1 – Fotolia

Recent Posts

Legapass : comment protéger ses données privées jusque dans l’au-delà

Comment gérer les données numériques après la mort de son détenteur ? La jeune pousse…

1 jour ago

Iris, un assistant d’IA conversationnelle en langue des signes

Ivès, expert en accessibilité de la surdité, s’est associé à Sopra Steria et à IBM…

1 jour ago

GenAI : le Royaume-Uni poursuit ses investigations sur les partenariats de Microsoft et Amazon

L'Autorité de la concurrence et des marchés (CMA) a lancé la phase de recherche de…

2 jours ago

Clients de VMware : les raisons de la colère

Broadcom remplace pas moins de 168 logiciels VMware par deux grandes licences de location correspondant…

2 jours ago

Laurent Carlier – BNP Paribas Global Market : « L’IA permet de modéliser des relations plus complexes, mais il faut rester prudent »

La banque d’investissement utilise l'IA pour proposer des stratégies individualisées, en termes de rendement et…

2 jours ago

Open Compute Project : les datacenters partagent des bonnes pratiques pour l’environnement

OVHCloud partage ses efforts environnementaux au sommet de l’Open Compute Project qui se tient à…

3 jours ago