La migration d’Alexa vers le silicium Amazon atteint un nouveau stade. Le groupe américain affirme avoir basculé la majorité des tâches d’inférence initialement exécutées sur GPU.
Les tâches en question relèvent de la synthèse vocale. Celle-ci s’enclenche à la fin du processus d’interaction avec l’assistant. Elle permet à ce dernier de fournir des réponses. Deux étapes d’inférence se déroulent au préalable : la transcription et la compréhension du langage naturel.
Le basculement se fait vers les instances EC2 Inf1, dotées de puces Inferentia* alliées à des Xeon Scalable 2e génération. AWS évoque une réduction de latence (25 %) et de coûts (30 %) par rapport aux instances en GPU Nvidia précédemment exploitées.
Autre service Amazon à adopter les puces Inferentia : Rekognition (reconnaissance faciale). On ne nous précise pas l’état d’avancement de la transition. Mais on nous promet des gains plus significatifs qu’avec la synthèse vocale. En l’occurrence, une latence divisée par 8 sur la catégorisation d’objets.
* Les puces Inferentia complètent, au catalogue AWS, les Graviton, fondées sur des cœurs Arm Neoverse 64 bits.
Illustration principale © Edelweiss – Fotolia
Le support Rust for Linux pourrait être prêt pour la version 5.20 du noyau Linux,…
Le Clusif a listé 23 référentiels pour traiter le sujet de la sécurité dans le…
Malgré des avancées, la diversification des embauches et l'équité salariale progressent lentement dans les technologies…
Primes, capacités, franchises, indemnisations... Coup de projecteur sur quelques aspects du marché français de l'assurance…
Dans la lignée du passage de GitHub Copilot en phase commerciale, CodeWhisperer, son concurrent made…
Zscaler renforce les capacités d'intelligence artificielle de sa plateforme de sécurité Zero Trust Exchange, de…