La migration d’Alexa vers le silicium Amazon atteint un nouveau stade. Le groupe américain affirme avoir basculé la majorité des tâches d’inférence initialement exécutées sur GPU.
Les tâches en question relèvent de la synthèse vocale. Celle-ci s’enclenche à la fin du processus d’interaction avec l’assistant. Elle permet à ce dernier de fournir des réponses. Deux étapes d’inférence se déroulent au préalable : la transcription et la compréhension du langage naturel.
Le basculement se fait vers les instances EC2 Inf1, dotées de puces Inferentia* alliées à des Xeon Scalable 2e génération. AWS évoque une réduction de latence (25 %) et de coûts (30 %) par rapport aux instances en GPU Nvidia précédemment exploitées.
Autre service Amazon à adopter les puces Inferentia : Rekognition (reconnaissance faciale). On ne nous précise pas l’état d’avancement de la transition. Mais on nous promet des gains plus significatifs qu’avec la synthèse vocale. En l’occurrence, une latence divisée par 8 sur la catégorisation d’objets.
* Les puces Inferentia complètent, au catalogue AWS, les Graviton, fondées sur des cœurs Arm Neoverse 64 bits.
Illustration principale © Edelweiss – Fotolia
Comment gérer les données numériques après la mort de son détenteur ? La jeune pousse…
Ivès, expert en accessibilité de la surdité, s’est associé à Sopra Steria et à IBM…
L'Autorité de la concurrence et des marchés (CMA) a lancé la phase de recherche de…
Broadcom remplace pas moins de 168 logiciels VMware par deux grandes licences de location correspondant…
La banque d’investissement utilise l'IA pour proposer des stratégies individualisées, en termes de rendement et…
OVHCloud partage ses efforts environnementaux au sommet de l’Open Compute Project qui se tient à…