Yann LeCun, Facebook : l’intelligence artificielle est son amie

Big DataData & Stockage
7 24 Donnez votre avis

Devant une salle comble, Yann LeCun, le chercheur français recruté par Facebook pour diriger ses recherches en IA, fait le point sur les avancées en matière de Machine Learning. Tout en dissipant les craintes sur la toute-puissance imminente des machines.

Véritable vedette américaine de la première journée de l’USI (l’ex-Université des SI rebaptisée Unexpected Sources of Inspiration) organisée par Octo Technology, qui se tient en cette fin de semaine à Paris, Yann LeCun, le chercheur français spécialiste d’intelligence artificielle choisi par Facebook pour diriger ses activités en la matière, a tenu à dissiper les craintes qui se sont récemment exprimées sur le sujet. Des craintes popularisées par les déclarations de Stephen Hawking, Elon Musk ou encore Bill Gates. Mais des craintes exagérées si l’on en croit le chercheur, recruté par le réseau social fin 2013 pour diriger son programme FAIR (la recherche en intelligence artificielle du réseau social). « Les machines ne seront pas dangereuses sauf si on les rend dangereuses », avance Yann LeCun, qui a fait salle comble ce 2 juillet au matin au Carrousel du Louvre.

Une des raisons qui explique ces craintes réside dans le fait que l’homme a beaucoup de mal à s’imaginer une intelligence… qui ne serait pas humaine. « Or, il n’y a aucune raison qu’une intelligence artificielle ait les mêmes qualités et défauts que l’homme. Pourquoi, par exemple, la machine devrait-elle être dotée de l’instinct de survie ? », lance le chercheur. De toute façon, pour ce dernier, la perspective d’une intelligence artificielle reste relativement lointaine. « Quand on dit que c’est pour dans vingt ans, cela signifie en réalité qu’on ne sait absolument pas comment on va s’y prendre. Avant d’y parvenir, il faudra lever des obstacles connus, mais aussi probablement des obstacles qui n’ont pas encore été identifiés à ce jour ». La route amenant à la conception de machines plus intelligentes que les humains pour la plupart des tâches est donc encore longue. Par contre, les progrès du Machine Learning donnent, eux, déjà naissance à de plus en plus de machines spécialisées réalisant une tâche précise aussi bien ou mieux que l’homme.

Reconnaissance d’images : la machine égale l’homme

C’est justement la spécialité du chercheur français, travaillant à l’université de New York. Et la raison de son embauche par Facebook, orchestrée par le fondateur du réseau social, Mark Zuckerberg. Lors de sa conférence à l’USI, Yann LeCun a zoomé sur le Deep Learning, un ensemble de techniques permettant de perfectionner le Machine Learning. Et que le chercheur a notamment employé dans des applications de reconnaissance d’images. Là, où les techniques classiques font appel à une étape d’extraction de caractéristiques, permettant de reconnaître un objet ou un type d’objets via quelques éléments essentiels, le Deep Learning fait confiance à une séquence de modules entraînables, « remplaçant une étape auparavant réalisée à la main. Et même si ces systèmes ont besoin de beaucoup de données, ils sont aujourd’hui plus efficaces que les ingénieurs humains spécialistes d’extraction de caractéristiques », dit Yann LeCun.

Dans le détail, ces architectures sont constituées de multiples couches hiérarchiques, des réseaux neuronaux effectuant chacun à leur niveau des opérations mathématiques simples. « A bas niveau, dans la reconnaissance d’images, les réseaux s’attachent à détecter de petits motifs simples, des contours orientés. Puis, au niveau du dessus, on se concentre sur les conjonctions de motifs. Avant de s’attaquer à la détection de parties d’objets, puis des objets eux-mêmes », illustre le chercheur. Ces mécanismes de Deep Learning, basés sur des réseaux dits convolutifs, apprennent seuls à corriger leurs mauvaises interprétations pour parvenir à des taux d’erreurs très faibles.

Bases de données + capacités de calcul

yann lecun 2Les architectures en question ne sont pas neuves. Yann LeCun travaillait déjà sur ces sujets au sein des Bell Labs à la fin des années 80. « A l’époque déjà, nous employions des systèmes fonctionnant avec une conjugaison de cellules simples et de cellules complexes, un modèle hérité de la biologie, et plus particulièrement du fonctionnement du cortex visuel ». Des recherches qui ont donné naissance dans les années 90 aux applications de lecture automatique de chèques, utilisées par les banques. « Puis la recherche s’est un peu détournée de ce sujet », reconnaît Yann LeCun. Avant un retour au premier plan depuis quelques années. « Tout simplement, parce que nous avons eu alors accès à des bases de données de grande taille (comme ImageNet, une base de données pour les images, NDLR) et à d’importantes capacités de calcul (notamment via les unités de calcul graphique ou GPU, NDLR), ce qui a permis d’entraîner des systèmes de grande taille », note le responsable des recherches en IA de Facebook. Ce qui se traduit notamment par une baisse des taux d’erreurs.

S’y ajoute, évidemment, l’intérêt de plusieurs industries pour le sujet. Notamment l’automobile, pour laquelle ces systèmes sont clefs dans la conception des véhicules autonomes. « Des entreprises comme Nvidia, Intel, Qualcomm et d’autres travaillent à concevoir des circuits spécialisés qui devraient voir le jour d’ici un an », détaille le chercheur. Des circuits suffisamment puissants pour héberger des réseaux convolutifs et qui pourront être intégrés dans divers systèmes.

Les réseaux neuronaux de Facebook

Et il y a bien sûr les applications imaginées par Facebook, afin cette fois de multiplier les interactions sur son réseau social. « Les utilisateurs publient environ 600 millions de photos chaque jour sur Facebook. Deux réseaux convolutifs traitent ces images : un pour la reconnaissance des objets, l’autre pour la reconnaissance de visages. Sur cette dernière, on se hisse au niveau des capacités de l’homme, en tout cas pour les photos de face », assure LeCun. Sauf que cette fonction n’est pas activée en Europe, les mentalités et les législations n’y étant pas encore prêtes selon le chercheur. Le réseau social a encore déployé un imposant réseau convolutif pour la reconnaissance de vidéos, système qui permet par exemple de reconnaître un sport à partir d’une séquence.

Et, pour Yann LeCun, les réseaux convolutifs n’ont pas épuisé leurs domaines d’application. Loin s’en faut. « En matière de reconnaissance du langage naturel, on s’attend à une révolution grâce à une technique appelée le ‘word embedding’, consistant à représenter des mots sous forme de vecteurs. Ce qui permet de faire des analogies, des comparaisons, etc. », affirme-t-il. Et d’assurer que ces systèmes, qui pourraient être utilisées dans la traduction temps réel, ont aujourd’hui des performances un peu plus élevées que les techniques classiques. Facebook se penche également sur le développement de réseaux neuronaux dotés d’une mémoire à court terme, où par exemple une histoire est représentée là encore sous forme de vecteurs.

« Nous assistons à une phase de progrès rapide du Machine Learning. Mais il faut garder à l’esprit qu’il subsiste certaines choses que les chercheurs ne savent pas faire, comme l’apprentissage non supervisé. Sur quels principes le baser en IA ? Personne ne le sait à ce jour. Cela reste un énorme obstacle », conclut Yann LeCun. Un frein qui permet de relativiser les cris d’orfraie que poussent Stephen Hawking, Elon Musk ou Bill Gates. Au moins pour l’instant.

A lire aussi :

Comment l’intelligence artificielle va remplacer des millions d’emplois
Machine Learning contre statistiques « classiques » : qui remportera le match ?
Google finance une intelligence artificielle pour le Big Data


Lire la biographie de l´auteur  Masquer la biographie de l´auteur