Le Cloud démocratise l’IA

Année après année, les entreprises confirment leur migration d’un certain nombre de données et d’applicatifs vers le Cloud. Une tendance qui ne cesse de croître sous l’impact du développement de l’Intelligence Artificielle.

Gourmands en puissance de calculs, ces projets IA nécessitent de lourdes infrastructures et réclament des compétences spécifiques pour développer des algorithmes. Autant de dépenses qui, jusqu’à récemment, ont réservé l’IA aux très grandes entreprises.

Plusieurs niveaux de services IA chez les cloud providers

Mais, depuis quelque temps, de nombreux cloud providers proposent des plateformes ciblant des entreprises plus petites comme les ETI et PME. Ainsi, ils fournissent des plateformes de calculs sur lesquelles elles peuvent déposer leurs données et algorithmes. Une configuration qui impose à l’entreprise de disposer en interne de data scientists et data analysts pour développer les algorithmes, les entraîner (Machine Learning) et analyser les données.

Dans ce type de contrats, l’entreprise garde la main sur ses données et sur ses modèles.
Toutefois, toutes les entreprises, et notamment les PME, n’ont pas vocation à développer elles-mêmes des projets IA. Leurs souhaits sont juste de consommer l’IA afin d’en tirer les bénéfices pour rester dans la course. Dans ce cas, elles ont tout intérêt à se tourner vers des cloud providers qui proposent des services packagés. Ainsi, elles peuvent souscrire à un service d’analyse de reconnaissance d’image, de traitement automatique du langage, ou encore d’analyses d’émotions. Dans le cadre de ces offres, le cloud provider développe l’algorithme et entraîne l’IA.

Comprendre les algorithmes et garder la main

Si tous ces services ont fait entrer l’IA dans les entreprises, cette démocratisation est-elle, pour autant, sans risque ? Peuvent-elles utiliser un algorithme IA d’un cloud provider sans se préoccuper de la façon dont il a été créé et sans regarder la manière dont il est entraîné ? Peuvent-elles s’affranchir de la connaissance des modèles et des données utilisées pour le Machine Learning ?

Aujourd’hui de nombreux algorithmes d’IA sont des boîtes noires ou algorithmes de deep learning, alimentées par un très grand volume de données (big data) et dont on ignore le fonctionnement. Comment alors justifier une réponse si on est incapable de comprendre le raisonnement qui a conduit à cette décision ? Comment accorder sa confiance à un algorithme qui nous échappe ?

Souvenons-nous des dérapages de Tay, le robot conversationnel créé par Microsoft en 2016 et qui, en quelques heures, a révélé un comportement nazi ? Même déconvenue pour Amazon dont l’IA utilisée dans son processus de recrutement s’est avérée discriminante envers les femmes.
Deux histoires parmi d’autres qui démontrent les failles de l’Intelligence Artificielle. Se prémunir contre de telles situations nécessite plusieurs précautions. La première : comprendre le fonctionnement de l’algorithme et être en accord avec la façon dont il a été construit. Vient ensuite la maîtrise, la qualification et la fiabilité des données qui alimentent l’IA.

Enfin, il est impératif de s’assurer régulièrement que le résultat attendu n’est pas totalement déconnecté de la réalité. Ainsi il faut s’intéresser de près aux comportements de l’IA afin d’en prévenir tout type de dérapages. Une préoccupation récente de plus en plus prise en compte par les concepteurs d’IA.

En conclusion, même si le cloud pousse au développement de l’IA, celui-ci ne pourra se faire sans l’adoption de ces trois principes : compréhension des algorithmes, données qualifiées et vérification des comportements des modèles. Sans ce triptyque, les utilisateurs n’accorderont pas leur confiance aux IA.