Amazon veut aussi ses puces IA : le must pour les géants du numérique

amazon-intelligence-artificielle-puce

Amazon pourrait développer ses propres puces IA, afin d’améliorer la réactivité des appareils numériques exploitant son assistant vocal Alexa. Comme l’enceinte connectée Echo.

Amazon développerait sa propre puce capable de traiter des tâches relevant de l’intelligence artificielle.

A l’instar d’initiatives prises par Google, Samsung ou Apple, le groupe numérique de Jeff Bezos veut contrôler le coeur IA. En particulier celui intégré dans les enceintes connectées de sa gamme Echo ainsi que d’autres dispositifs alimentés par son assistant vocal Alexa, selon une source proche du dossier.

Avec une telle puce dédiée, les commandes vocales pourraient être traitées plus rapidement, grâce à une gestion de celles-ci en local (edge computing) plutôt que dans le cloud systématiquement. De ce fait, l’expérience utilisateur serait grandement améliorée sur ce type d’appareils.

De quoi inquiéter Intel et Nvidia qui seraient alors en position de perdre des clients dans le domaine des puces IA.

Pour acquérir l’expertise nécessaire à la conception de puces, Amazon avait procédé à plusieurs acquisitions clés.

La firme de Jeff Bezos avait ainsi mis la main sur Annapurna Labs en 2015, une société israélienne spécialisée dans la fabrication de puces électroniques, pour 350 millions de dollars.

Elle a aussi procédé, fin 2017, à l’acquisition du fabricant de caméras de sécurité Blink pour 90  millions de dollars, a récemment révélé Reuters.

En complément, Amazon pourrait aller plus loin en développant ses propres puces IA pour Amazon Web Services (branche BtoB du groupe de Jeff Bezos) dédiées à la formation des agents IA.

Apple a aussi commencé à développer sa propre IP pour accélérer localement les tâches IA. Le Neural Engine est ainsi intégré dans le SoC (System on Chip) A11 Bionic des iPhone X et iPhone 8.

Samsung développerait également sa propre puce IA pour améliorer les capacités de son assistant vocal Bixby.

Google a de son côté développé l’unité de traitement Tensor, une puce de type ASIC. Conçu sur mesure pour sa plateforme de formation TensorFlow AI, le TPU, qui a été mis à jour en 2017 (avec une deuxième mouture), procure à Google un avantage en matière de tâches d’apprentissage automatique (machine learning).

Le TPU de Google se retrouve ainsi à la base du système AlphaGo de DeepMind, du nom d’une société technologique britannique à la pointe de l’intelligence artificielle acquise par Google en janvier 2014 pour 628 millions de dollars.

Facebook, qui s’emploie activement dans la recherche sur l’IA (notamment à travers sa division hardware Building 8 ou FAIR acronyme de Facebook AI Research), conçoit également son propre matériel de serveur pour la formation des agents IA.

(Crédit photo : Norio.NAKAYAMA on VisualHunt.com / CC BY-NC-SA)