Démystifier les technologies Cloud

Cloud

Non seulement l’Intelligence artificielle est aussi performante en local qu’en cloud, mais recourir à des technologiques embarquées permet de personnaliser sa compréhension et donc de l’affiner.

Want create site? Find Free WordPress Themes and plugins.

Les assistants vocaux des géants américains du numérique, qui inondent aujourd’hui le marché, fonctionnent principalement en cloud. En dépit d’une volonté de façonner toutes les technologiques sur ce modèle, le cloud reste limité dans son usage et présente le risque pour les utilisateurs de se trouver enfermés dans un écosystème unique.

Loin d’un monde numérique 100 % cloud, les grandes espérances portent en réalité sur l’utilisation de technologies embarquées.

La performance en trompe l’œil du cloud

Une fausse idée, savamment entretenue par les GAFAM, est celle selon laquelle les technologies hébergées en cloud seraient plus performantes que celles abritées en local. Certes, le cloud a par essence une capacité de calcul infinie, là où la puissance de calcul embarquée est limitée par l’objet qui la contient. Mais il s’agit d’une contrainte en trompe-l’œil, car les ressources du cloud n’ont pas pour autant d’impact sur la performance. Pour l’usage quotidien qui est fait des objets technologiques, disposer d’une puissance gigantesque est tout simplement inutile.

De plus, les technologies les plus avancées en IA, notamment le machine learning, peuvent très bien se passer du cloud. Le machine learning embarqué s’est d’ailleurs démocratisé, et équipe les principaux smartphones et ordinateurs du marché — c’est ce qui permet par exemple la reconnaissance faciale ou auditive.

Pour des questions de performance, la gestion de l’IA en local est même préférable, car à partir d’une certaine puissance de calcul les données brassées sont trop nombreuses pour être envoyées sur le cloud sans risquer de provoquer des latences.

Puces neuromorphiques : un bond technologique majeur

S’il est déjà possible d’avoir les mêmes performances en local qu’en cloud, l’arrivée des « puces neuromorphiques » va réduire comme peau de chagrin les arguments du cloud en matière de performance. D’un nouveau genre, ces puces reproduisent le schéma des neurones du cerveau et sont conçues spécifiquement pour faire tourner des modèles de deep learning*.
En un mot, cette nouvelle génération de puces permet d’embarquer des IA beaucoup, beaucoup plus puissantes, et leur arrivée imminente sur le marché va permettre un bond technologique pour tous les objets du quotidien.

Depuis un an déjà, les téléphones haut de gamme sont équipés en puces neuromorphiques. Mais l’année à venir devrait voir leur incursion dans les objets du quotidien : enceintes, télévision, électroménager.

Déboires des moteurs de recherche généralistes

Ce qui fait la puissance des moteurs de recherche en cloud, comme Google Home ou Alexa, est leur capacité à brasser toutes les données de leurs utilisateurs dans le même chaudron. De là découle d’ailleurs l’un de leurs arguments : le passage des données par le cloud permettrait d’entraîner l’IA et donc de la perfectionner.

Mais il s’agit là d’un fantasme. L’IA ne peut en effet apprendre que des réponses à des problèmes ; or l’écrasante majorité des données partagées concernent des problèmes et n’apportent donc pas de connaissances nouvelles à l’IA. Ce que ces données apportent, en revanche, sont de précieux renseignements sur leurs utilisateurs aux GAFAM, qui leur permettent ensuite — là est tout leur modèle économique — de vendre de la publicité ciblée à des annonceurs.

Personnalisation

Outre qu’il ne respecte en aucune façon la vie privée des utilisateurs, ce brassage des données dans le cloud a pour — autre — désavantage de manquer de précision.

Dans ce modèle de moteur de recherche global, utilisé par tout le monde quelles que soient les requêtes, les mots sont pondérés selon leur probabilité d’occurrence (par exemple Barack Obama a plus de poids qu’un nom moins populaire). Si cela est bien pour les noms connus, c’est en revanche plus approximatif dès que le nom perd en popularité. Cette approche est donc limitée en ce qu’elle ne tient pas compte du contexte même de la recherche.

Là où le cloud cherche à servir tout le monde avec un moteur de recherche unique, la reconnaissance vocale en natif est par essence contextualisée : une enceinte intelligente va cibler spécifiquement une recherche musicale (et, donc, ne pas rechercher Barack Obama comme artiste si on lui demande Barbara). Grâce au machine learning embarqué, l’outil va même pouvoir s’enrichir des goûts personnels des utilisateurs, et créer une IA personnalisable en fonction des usages spécifiques à chacun.

Alors que la société se dirige vers une configuration du « tout connecté » (mails, contact, fichiers) les risques que représente le passage par le cloud restent un frein. Difficile, en effet, d’envoyer dans le cloud des données qui, croisées, ouvrent le champ de toute une vie. Mais, si ces données restent en interne, il y a fort à parier que les utilisateurs seront désireux de profiter de la simplification sans précédent que permet leur interconnexion.

Une fois les données en sécurité, il est alors possible pour chaque personne de les soumettre au machine learning, afin d’entraîner son propre assistant personnel intelligent.

* Langage universel pour exprimer des modèles de machine learning

Did you find apk for android? You can find new Free Android Games and apps.

Auteur
En savoir plus 
CTO
Snips
Jospeh Dureau est CTO de Snips
En savoir plus 

Livres blancs A la Une