Pour gérer vos consentements :

IA : quand le traitement du langage bute sur le sens commun

Quel est le principal atout de l’humain par rapport à l’intelligence artificielle ? Le sens commun. En tout cas pour ce qui est de produire des énoncés plausibles. C’est le principal enseignement d’une expérience qu’ont menée des chercheurs basés aux États-Unis.

Leur constat n’a rien de nouveau. Leur méthodologie ouvre néanmoins des pistes susceptibles de favoriser l’acquisition dudit sens commun par les modèles d’apprentissage automatique.

L’expérience a consisté à mettre à l’épreuve une dizaine de ces modèles. Le but : générer des propos cohérents pour décrire des scénarios du quotidien. On les a pour cela entraînés à partir d’un corpus de 77 499 phrases dont on a tiré 35 141 « concepts » (noms ou verbes).

Le jeu de données se fonde notamment sur des légendes d’images et de vidéos. Les chercheurs l’ont optimisé pour éviter les associations incohérentes de concepts.

Remplir l’objectif recherché suppose deux capacités. D’un côté, savoir saisir les relations entre concepts. De l’autre, pouvoir « généraliser » ; c’est-à-dire aborder des notions ou des combinaisons de notions jamais vues auparavant.

Ces deux aspects nous sont si évidents qu’on les intègre rarement dans les données qui servent à entraîner les modèles d’IA. Cela se ressent d’autant plus, expliquent les chercheurs, qu’on enchaîne les associations de concepts pour aller vers des scénarios. En la matière, le plus important semble la capacité à interpréter les propriétés des objets et les relations spatiales.

La transversalité du sens commun

L’ensemble des modèles mis à l’épreuve ont fait l’objet d’un entraînement préalable avec ConceptNet (base de connaissances du sens commun). Ceux déjà formés en amont sur des tâches relatives à l’interprétation du langage naturel s’en tirent mieux, comme l’illustre le tableau ci-dessous.

Leurs performances restent toutefois sans comparaison avec celle de l’humain. BART, par exemple, a la meilleure couverture conceptuelle, mais a tendance à faire des répétitions. Quant à T5, il a tendance à oublier les agents.

Même avec les meilleurs modèles, les chiens lancent les frisbees.

Au-delà de cette expérience, l’entraînement qu’ont subi les différents modèles les a rendu plus performants pour d’autres tâches. En premier lieu, la réponse aux questions en langage naturel.

Illustration principale © lassedesignen – Fotolia

Recent Posts

IA générative : les lignes directrices de l’ANSSI

Formats de paramètres, méthodes d'apprentissage, mutualisation GPU... Voici quelques-unes des recommandations de l'ANSSI sur l'IA…

6 minutes ago

De la marque blanche à l’« exemption souveraine », Broadcom fait des concessions aux fournisseurs cloud

À la grogne des partenaires VMware, Broadcom répond par diverses concessions.

4 heures ago

iPadOS finalement soumis au DMA

iPadOS a une position suffisamment influente pour être soumis au DMA, estime la Commission européenne.

5 heures ago

ChatGPT : le Financial Times signe avec OpenAI

FT Group, éditeur du Financal Times, a signé un accord avec OpenAI afin d'utiliser ses…

2 jours ago

Les hyperscalers renforcent leurs recherches et datacenters pour l’IA

Au premier trimestre, Microsoft, Meta/Facebook et Alphabet/Google ont déjà investi plus de 32 milliards $…

2 jours ago

Cybersécurité : Darktrace dans l’escarcelle de Thoma Bravo

La société britannique de cybersécurité Darktrace a accepté une offre de rachat de 5,32 milliards…

3 jours ago