Pour gérer vos consentements :

Armv9 : la sécurité d’abord ?

La sécurité sera-t-elle à Armv9 ce que le 64 bits fut à Armv8 ? Elle apparaît en tout cas comme l’un des principaux éléments distinctifs de cette nouvelle architecture, tout juste officialisée.

Arm avance sous la bannière CCA (Confidential Computing Architecture). Avec, pour le moment, une technologie phare : RME (Realm Management Extensions). L’objectif : réduire la nécessité de confiance vis-à-vis des OS et des hyperviseurs. Le moyen : renforcer l’isolation des environnements d’exécution. Ce en intercalant un gestionnaire, nettement plus léger qu’un hyperviseur, lequel ne sert alors plus qu’à allouer des ressources et à planifier l’exécution.

Au chapitre sécurité, il y a aussi la technologie MTE (Memory Tagging Extensions). Pas tout à fait nouvelle, puisque arrivée en 2018 avec Armv8.5. Elle est censée aider à éviter les failles communes de type dépassement de tampon ou réutilisation de mémoire. Comment ? En étiquetant chaque zone allouée et en restreignant l’accès aux seuls pointeurs pareillement étiquetés.

NEON sur la fin avec Armv9 ?

Parmi les autres éléments spécifiques à Armv9, il y a la gestion de la mémoire transactionnelle, qui doit simplifier l’écriture de programmes parallèles. Mais aussi et surtout SVE2.

La première itération des SVE était arrivée en 2016 sur Armv8. Elle complétait NEON en tant qu’implémentation « étendue » du jeu d’instructions SIMD. L’accent était mis sur le calcul vectoriel, avec pour cible les superordinateurs. Fujitsu avait été le premier à prendre officiellement une licence. Il en a résulté les cœurs A64FX.

SVE2 étend la couverture fonctionnelle du jeu d’instructions pour aller au-delà du calcul haute performance et du machine learning. Cela implique notamment l’extension d’une partie des instructions NEON afin qu’elles prennent en charge les vecteurs de taille variable.
Arm ajoute – entre autres – à cela des instructions pour la multiplication matricielle (introduites en 2019 avec Armv8.6*). En parallélisant les calculs, elles réduisent le nombre d’accès mémoire. En première ligne, les tâches d’apprentissage automatique qui stockent les poids dans une matrice et les fonctions d’activation sur une autre.

* Il se peut qu’Apple utilise ces instructions de multiplication matricielle dans sa puce M1, au niveau du – très secret – coprocesseur AMX.

Recent Posts

IA générative : les lignes directrices de l’ANSSI

Formats de paramètres, méthodes d'apprentissage, mutualisation GPU... Voici quelques-unes des recommandations de l'ANSSI sur l'IA…

2 minutes ago

De la marque blanche à l’« exemption souveraine », Broadcom fait des concessions aux fournisseurs cloud

À la grogne des partenaires VMware, Broadcom répond par diverses concessions.

4 heures ago

iPadOS finalement soumis au DMA

iPadOS a une position suffisamment influente pour être soumis au DMA, estime la Commission européenne.

5 heures ago

ChatGPT : le Financial Times signe avec OpenAI

FT Group, éditeur du Financal Times, a signé un accord avec OpenAI afin d'utiliser ses…

2 jours ago

Les hyperscalers renforcent leurs recherches et datacenters pour l’IA

Au premier trimestre, Microsoft, Meta/Facebook et Alphabet/Google ont déjà investi plus de 32 milliards $…

2 jours ago

Cybersécurité : Darktrace dans l’escarcelle de Thoma Bravo

La société britannique de cybersécurité Darktrace a accepté une offre de rachat de 5,32 milliards…

3 jours ago