Pour gérer vos consentements :

Armv9 : la sécurité d’abord ?

La sécurité sera-t-elle à Armv9 ce que le 64 bits fut à Armv8 ? Elle apparaît en tout cas comme l’un des principaux éléments distinctifs de cette nouvelle architecture, tout juste officialisée.

Arm avance sous la bannière CCA (Confidential Computing Architecture). Avec, pour le moment, une technologie phare : RME (Realm Management Extensions). L’objectif : réduire la nécessité de confiance vis-à-vis des OS et des hyperviseurs. Le moyen : renforcer l’isolation des environnements d’exécution. Ce en intercalant un gestionnaire, nettement plus léger qu’un hyperviseur, lequel ne sert alors plus qu’à allouer des ressources et à planifier l’exécution.

Au chapitre sécurité, il y a aussi la technologie MTE (Memory Tagging Extensions). Pas tout à fait nouvelle, puisque arrivée en 2018 avec Armv8.5. Elle est censée aider à éviter les failles communes de type dépassement de tampon ou réutilisation de mémoire. Comment ? En étiquetant chaque zone allouée et en restreignant l’accès aux seuls pointeurs pareillement étiquetés.

NEON sur la fin avec Armv9 ?

Parmi les autres éléments spécifiques à Armv9, il y a la gestion de la mémoire transactionnelle, qui doit simplifier l’écriture de programmes parallèles. Mais aussi et surtout SVE2.

La première itération des SVE était arrivée en 2016 sur Armv8. Elle complétait NEON en tant qu’implémentation « étendue » du jeu d’instructions SIMD. L’accent était mis sur le calcul vectoriel, avec pour cible les superordinateurs. Fujitsu avait été le premier à prendre officiellement une licence. Il en a résulté les cœurs A64FX.

SVE2 étend la couverture fonctionnelle du jeu d’instructions pour aller au-delà du calcul haute performance et du machine learning. Cela implique notamment l’extension d’une partie des instructions NEON afin qu’elles prennent en charge les vecteurs de taille variable.
Arm ajoute – entre autres – à cela des instructions pour la multiplication matricielle (introduites en 2019 avec Armv8.6*). En parallélisant les calculs, elles réduisent le nombre d’accès mémoire. En première ligne, les tâches d’apprentissage automatique qui stockent les poids dans une matrice et les fonctions d’activation sur une autre.

* Il se peut qu’Apple utilise ces instructions de multiplication matricielle dans sa puce M1, au niveau du – très secret – coprocesseur AMX.

Recent Posts

Sigfox en redressement judiciaire : la chute d’une pépite qu’on voyait licorne

Une période d'observation de six mois démarre pour l'entreprise toulousaine Sigfox, en quête d'un repreneur.

5 heures ago

Salaires IT : des rémunérations à six chiffres… aux Etats-Unis

La Silicon Valley, Seattle et New York proposent les salaires Tech les plus élevés. En…

6 heures ago

Tech : comment motiver et retenir les talents

Face aux difficultés de recrutement des profils technologiques les plus recherchés du marché, la mise…

11 heures ago

Gestion des données de référence : le top 10 des fournisseurs

Qui sont les têtes d'affiche de la gestion des données de référence (MDM) et comment…

12 heures ago

Ransomware au ministère de la Justice : où en est-on ?

LockBit 2.0 a épinglé le ministère de la Justice à son tableau de chasse. À…

15 heures ago

Stéphane Boulanger, nouveau DOSI du PMU

Le PMU nomme Stéphane Boulanger au poste Directeur des Opérations et des Systèmes d'Information (DOSI).

1 jour ago