IA : quand le traitement du langage bute sur le sens commun

Quel est le principal atout de l’humain par rapport à l’intelligence artificielle ? Le sens commun. En tout cas pour ce qui est de produire des énoncés plausibles. C’est le principal enseignement d’une expérience qu’ont menée des chercheurs basés aux États-Unis.

Leur constat n’a rien de nouveau. Leur méthodologie ouvre néanmoins des pistes susceptibles de favoriser l’acquisition dudit sens commun par les modèles d’apprentissage automatique.

L’expérience a consisté à mettre à l’épreuve une dizaine de ces modèles. Le but : générer des propos cohérents pour décrire des scénarios du quotidien. On les a pour cela entraînés à partir d’un corpus de 77 499 phrases dont on a tiré 35 141 « concepts » (noms ou verbes).

Le jeu de données se fonde notamment sur des légendes d’images et de vidéos. Les chercheurs l’ont optimisé pour éviter les associations incohérentes de concepts.

Remplir l’objectif recherché suppose deux capacités. D’un côté, savoir saisir les relations entre concepts. De l’autre, pouvoir « généraliser » ; c’est-à-dire aborder des notions ou des combinaisons de notions jamais vues auparavant.

Ces deux aspects nous sont si évidents qu’on les intègre rarement dans les données qui servent à entraîner les modèles d’IA. Cela se ressent d’autant plus, expliquent les chercheurs, qu’on enchaîne les associations de concepts pour aller vers des scénarios. En la matière, le plus important semble la capacité à interpréter les propriétés des objets et les relations spatiales.

La transversalité du sens commun

L’ensemble des modèles mis à l’épreuve ont fait l’objet d’un entraînement préalable avec ConceptNet (base de connaissances du sens commun). Ceux déjà formés en amont sur des tâches relatives à l’interprétation du langage naturel s’en tirent mieux, comme l’illustre le tableau ci-dessous.

Leurs performances restent toutefois sans comparaison avec celle de l’humain. BART, par exemple, a la meilleure couverture conceptuelle, mais a tendance à faire des répétitions. Quant à T5, il a tendance à oublier les agents.

Même avec les meilleurs modèles, les chiens lancent les frisbees.

Au-delà de cette expérience, l’entraînement qu’ont subi les différents modèles les a rendu plus performants pour d’autres tâches. En premier lieu, la réponse aux questions en langage naturel.

Illustration principale © lassedesignen – Fotolia

Recent Posts

Microsoft révise ses programmes de licence à l’aune du cloud

Microsoft permet désormais la vente de licences perpétuelles dans le cadre du programme Cloud Solution…

2 jours ago

Open hardware : Android porté sur RISC-V

Alibaba est parvenu à porter Android sur un processeur RISC-V maison, avec interface graphique et…

2 jours ago

Firefox sur Apple Silicon : dans les coulisses du portage

De Rust aux DRM, Mozilla revient sur quelques-uns des défis qu'a impliqués le portage de…

2 jours ago

DBaaS : Couchbase Cloud sur Azure, après AWS

Après Amazon Web Services, Azure. La base de données en tant que service de Couchbase…

2 jours ago

Zerologon : Microsoft prépare la phase deux de son plan correctif

Microsoft se prépare à ajuster le correctif qu'il diffuse depuis août dernier contre la faille…

3 jours ago

DSI : un fonctionnement en silos qui coûte cher

9 DSI sur 10 considèrent que la contribution des équipes IT à la création de…

3 jours ago