IA : on ne joue plus… ou alors à se faire peur

Début 2016, l’intelligence artificielle (IA) pouvait être encore perçue comme un champ d’expérimentation. 12 mois plus tard, le domaine est devenu le théâtre d’une bataille acharnée entre Google, IBM, Amazon et autres. Et soulève aussi des questions de société très concrètes. Et très immédiates.

Spécial Bilan 2016. En début d’année 2016, l’IA était presque encore un jeu, un exercice de laboratoire. En mars, AlphaGo, une intelligence artificielle développée par Google, s’imposait par K.O. face au champion sud-coréen du jeu de Go, Lee Sedol. Dans la veine de la participation de Watson au jeu télévisé Jeopardy, en 2011. Sauf que, à mesure que 2016 avançait, les grands industriels du secteur, les Apple, Google, IBM, Amazon, ont cessé de voir l’IA comme un simple terrain de jeu, multipliant les investissements et les rachats dans ce qu’ils présentent comme la prochaine grande révolution technologique.

De facto, l’alliance des algorithmes de Deep Learning, forme d’apprentissage automatique apparue à la fin des années 80, de grands volumes de données et de capacités de calcul confortables (comme celles fournies par les GPU) a débouché sur des percées majeures dans des domaines comme la reconnaissance vocale, la reconnaissance d’images, la vision par ordinateur ou encore le traitement automatisé du langage. Remodelant les offres des grands industriels du secteur. En quelques mois seulement. Symbole de ce soudain emballement, le Français Yann LeCun, un des chercheurs les plus influents du domaine, devenu, en quelques mois, une star planétaire. LeCun a été embauché par Facebook, qui l’a placé à la tête de sa recherche en IA.

IA sous forme d’API dans le Cloud

nadella
Satya Nadella.

Arrivé très tôt sur le segment, IBM est désormais rejoint par tous les grands noms du secteur. Microsoft, Google et Apple proposent tous un assistant qu’on interroge par la voix et qui est basé sur le Machine Learning. Ces technologies s’appellent respectivement Cortana, Assistant et Siri. Mais les acteurs du Cloud vont plus loin. Le premier éditeur mondial met ainsi à disposition des entreprises, sur Azure, des API permettant de bâtir, de connecter à d’autres services et de réutiliser des robots conversationnels. De passage à Paris cet automne, le patron de Microsoft, Satya Nadella, expliquait : « Une des caractéristiques communes des applications que vous allez construire sur Azure, c’est l’utilisation conjointe de l’intelligence artificielle sur de grands volumes de données. » Les concurrents de Microsoft sur le Cloud, AWS et Google, proposent évidemment des services similaires, accessibles sous la forme d’API.

Signalons également qu’en septembre, Redmond a annoncé la création d’une division dédiée à l’IA. Pas moins de 5 000 scientifiques et ingénieurs seront chargés de réfléchir au sujet. De son côté, Salesforce vient de mettre sur le marché une plate-forme d’IA baptisée Einstein, construite à coups de rachats et venant se greffer sur l’ensemble de ses services Cloud.

La voiture autonome peut-elle tuer son propriétaire ?

Couplées aux progrès de l’apprentissage non supervisé (où la machine découvre seule des concepts), ces percées ont toutefois rapidement soulevé des questions éthiques, voire philosophiques. Bien plus tôt que ce qu’on pouvait anticiper. Rappelons que les premiers vrais débats publics sur le sujet remontent à une lettre ouverte publiée à l’initiative de l’homme d’affaires Elon Musk et du physicien Stephen Hawking… en juillet 2015. Voici seulement 18 mois.

Or, des questions très concrètes sont déjà là, à nos portes. Comme le montre une récente étude sur le dilemme dans lequel sont plongés les programmeurs des algorithmes équipant les voitures autonomes. Si le véhicule est confronté à la traversée soudaine de piétons qu’il ne peut éviter, que doit-il faire ? Terminer sa course dans un mur, au risque de tuer ses passagers, ou heurter les piétons pour épargner la vie des personnes placées à l’intérieur de la voiture ? La réponse à cette question a aussi des implications commerciales : les consommateurs seront-ils prêts à acheter une machine programmée pour les sacrifier en cas d’absolue nécessité ?

Un conflit provoqué par l’IA

Autre cas troublant : cette étude publiée en octobre par Google, qui montre que, programmées pour protéger la confidentialité de communications, deux IA peuvent « découvrir des formes de chiffrement et déchiffrement, sans qu’on leur ait enseigné des algorithmes spécifiques pour ce faire », selon les termes des chercheurs. Autrement dit, des formes de communication ignorées des concepteurs des algorithmes. Le constat est d’ailleurs identique avec le système de traduction automatique du même Google, qui intègre désormais des algorithmes de Deep Learning. Une autre étude montre que ce système est capable d’établir des connexions entre des concepts et des mots qui ne sont pas formellement liés. Pour les chercheurs, la conséquence de ce constat est claire : le système a développé son propre langage interne, une « interlingua ». « Les réseaux neuronaux sont complexes et les interactions difficiles à décrire », avouent humblement les trois spécialistes de Google à l’origine de cette publication.

Début 2017, trois chercheurs français (Thierry Berthier, chaire de cyberdéfense de Saint-Cyr à l’université de Limoges, Jean-Gabriel Ganascia, UPMC–LIP6, et Olivier Kempf, IRIS), publieront une étude dévoilant un scénario concret de dérive malveillante de l’IA. En l’occurrence un conflit impliquant l’OTAN et d’autres grands acteurs. Selon les chercheurs, cette construction ne fait intervenir que des capacités ou fonctionnalités de l’IA, « existantes ou en cours de développement, notamment dans les récents programmes initiés par la Darpa », l’agence américaine pour les projets de recherche avancée de défense.

yann lecun facebook
Yann LeCun.

Fait notable, Google, IBM, Facebook et consorts ne nient pas ou plus ces questions éthiques. D’autant que celles-ci pourraient à terme engendrer une réaction de la société. Début décembre, le réseau social a mis en ligne sur Facebook Code une série de six vidéos informatives (en anglais) pour sensibiliser ses utilisateurs au fonctionnement de l’intelligence artificielle. « L’IA est une science rigoureuse axée sur la conception de machines et systèmes intelligents, utilisant des techniques algorithmiques inspirées par ce que nous savons sur le cerveau », soulignent dans un billet de blog Yann LeCun et Joaquin Quiñonero Candela, directeur de l’apprentissage automatique appliqué chez Facebook.

Sortir des imprécations, dit Google

De son côté, Elon Musk, le patron de Tesla et SpaceX, a mis sur pied, fin décembre 2015, OpenAI, une association à but non lucratif visant à réfléchir aux questions de société que pose l’IA. L’organisme compte dans ses rangs des personnalités comme Peter Thiel (le seul milliardaire de la tech à s’être affiché comme un soutien de Donald Trump), Reid Hoffman (LinkedIn), mais aussi une société comme AWS, le leader mondial du Iaas.

La volonté des géants de l’IT avec ces initiatives ? Sortir des imprécations entre idolâtres et détracteurs de l’IA, pour entrer dans le concret. « Alors que les risques potentiels de l’IA ont reçu une large attention de la part du public, les discussions autour de ce sujet sont restées très théoriques et basées sur des spéculations », estime Chris Olah, l’un des auteurs de ‘Concrete Problems in AI Safety’, un travail de recherche publié par Google. Et Mountain View de militer pour le développement « d’approches pratiques d’ingénierie de systèmes d’IA opérant de façon sûre et fiable ».

Car, il ne s’agit pas de venir tuer dans l’œuf une révolution qui promet une large refonte des applications d’entreprise. Lors de son symposium annuel en octobre, le cabinet d’études Gartner prédisait que 50 % des applications analytiques embarqueront des fonctions d’IA d’ici trois à cinq ans et qu’une large part des analyses sortant de ces applications sera glanée via des interactions vocales.

Les bots pas encore à la hauteur

Si le patron d’IBM France, Nicolas Sekkaki, assure que sa société est aujourd’hui engagée dans une dizaine de projets faisant appel à Watson, les vrais retours d’expérience sur le sujet restent peu nombreux. Dans l’Hexagone, le Crédit Mutuel teste l’utilisation de l’intelligence artificielle et des technologies cognitives depuis juin 2015. Avec un go définitif sur l’intégration de la technologie dans les derniers jours de décembre 2015. Pour l’heure, Watson est appliqué à deux cas d’usages au sein de l’établissement : l’assistance des conseillers dans le traitement des e-mails d’une part, et sur les produits d’assurance et d’épargne d’autre part. Une assistance informatisée qui vise à optimiser la productivité du conseiller et améliorer la pertinence des réponses fournies aux clients finaux. Pour l’instant, il ne s’agit pas de laisser l’IA interagir directement avec le client. Le cabinet d’études Forrester estime, d’ailleurs, que les bots – ces robots conversationnels basés sur l’IA – ne sont pas encore à la hauteur des attentes des usagers.

Lors d’un séminaire sur le sujet organisé par le Cigref, Françoise Mercadal-Delassales, directrice des ressources et de l’innovation à la Société Générale, rappelait toutefois que l’IA n’a pas attendu ces derniers mois pour faire son apparition dans les métiers de services. « Les banques utilisent depuis plusieurs années des machines pour traiter l’information à des fins de scoring et de trading. Ce qui change depuis quelques années, c’est la façon dont nous nourrissons ces machines avec le Big Data, les datalake et tout cela dans un environnement informatique qui est basé sur le Cloud et les API », expliquait la dirigeante.

Interview d’Obama, silence en France

Si banquiers et assureurs, notamment, manient le sujet avec précaution, c’est que ses conséquences en termes d’emploi sont potentiellement explosives. Selon une étude américaine (« Where machines could replace humans ») du cabinet McKinsey, les technologies disponibles aujourd’hui « pourraient automatiser 45 % des activités que les travailleurs effectuent en contrepartie d’une rémunération »aux Etats-Unis. Ce taux attendrait même 54 % dans l’Union européenne, d’après le groupe de réflexion économique européen Bruegel.

En la matière, tous les métiers ne sont pas logés à la même enseigne, certains étant faiblement automatisables, d’autres plus fortement. En la matière, l’informatique semble plutôt en première ligne. Une étude de société d’études américaine Evans Data Corporation montrait, au printemps dernier, que 29 % des 550 développeurs de logiciels interrogés craignent d’être supplantés par l’intelligence artificielle, des boîtes noires auto-apprenantes qui remplaceraient les applications traditionnelles. Des perspectives qui valent aussi pour la production informatique, comme le laissait entendre une étude présentée à la conférence Usenix, début novembre.

Aux Etats-Unis, les débats de société que soulève l’IA ont poussé Barack Obama, le président sortant, à accorder une longue interview à Wired sur le sujet, le 12 octobre dernier. En France, à ce jour, aucun candidat à la présidentielle ou à la primaire ne s’est encore exprimé clairement sur ces enjeux.

L’année 2016 dans le rétroviseur :

IoT : 2016, l’année du décollage

DDoS : la menace de moins en moins fantôme

Comment le ransomware est devenu le gagne-pain des cybercriminels

2016, une année en enfer pour SFR

2016, l’année des vols de données massifs

La longue marche de Microsoft pour imposer Windows 10 au marché

Crédit Photo : Chris P-Shutterstock