Pour gérer vos consentements :
Categories: Composants

Avec le Steamroller, AMD revient enfin dans la course !

Lors de l’arrivée de l’architecture processeur Bulldozer, AMD espérait révolutionner le marché. Hélas, la montée en gamme des puces Intel a limité les velléités de la firme de Sunnyvale dans le secteur du haut de gamme.

En 2012, la société a lancé la seconde génération de sa nouvelle architecture processeur, nom de code Piledriver, avec de meilleures performances à fréquence égale et de plus hautes fréquences maximales de fonctionnement. Le tout avec une finesse de gravure de 32 nm.

Steamroller… enfin convainquant ?

Malgré ses qualités, l’architecture Piledriver reste dans la ligne de Bulldozer. AMD devrait toutefois changer la donne avec Steamroller, qui propose une profonde refonte technologique.

La firme profite de la conférence Hot Chips pour lever le voile sur les avancées de Steamroller, lequel sera livré courant 2013.

Certaines améliorations offrent de réduire la quantité d’énergie consommée par le processeur. Des portions de la mémoire cache de niveau 2 pourront ainsi être éteintes lorsqu’elles ne sont pas utilisées.

De plus, l’unité de traitement sur les nombres flottants a été optimisée, certaines parties redondantes étant éliminées. La FPU consomme ainsi 15 % à 30 % d’énergie en moins.

Des flux optimisés

Divers changements permettent d’améliorer l’alimentation des unités de calcul en instructions, d’environ 30 % selon AMD.

Imaginez le cheminement du code dans le processeur : il traverse un long tunnel, au terme duquel son exécution est effective. À chaque cycle, l’exécution de plusieurs instructions s’achève (ce nombre dépend en partie de leur complexité). Toutefois, il faut bien plus d’un cycle à une instruction pour traverser l’ensemble du pipeline. C’est ce tunnel qui est ici optimisé.

Voici les trois points sur lesquels AMD a travaillé.

1/ Un tunnel plus large

La prise en charge des instructions est en progrès, avec un nouveau module de décodage à deux voies, soit une par unité de traitement des nombres entiers intégrée dans un bloc processeur, contre une pour deux unités précédemment.

Chaque unité de calcul sur les nombres entiers peut traiter quatre files d’instructions en parallèle. La répartition des instructions sur ces quatre voies est maintenant optimisée et permet d’en faire entrer jusqu’à 25 % de plus à chaque instant.

La suite en page deux…

Page: 1 2

Recent Posts

ChatGPT : le Financial Times signe avec OpenAI

FT Group, éditeur du Financal Times, a signé un accord avec OpenAI afin d'utiliser ses…

2 jours ago

Les hyperscalers renforcent leurs recherches et datacenters pour l’IA

Au premier trimestre, Microsoft, Meta/Facebook et Alphabet/Google ont déjà investi plus de 32 milliards $…

2 jours ago

Cybersécurité : Darktrace dans l’escarcelle de Thoma Bravo

La société britannique de cybersécurité Darktrace a accepté une offre de rachat de 5,32 milliards…

3 jours ago

Étude Trends of IT 2024 : comment les managers IT développent leurs projets

Silicon et KPMG lancent la deuxième édition de l'étude Trends of IT. Cette édition 2024…

3 jours ago

Atos : l’Etat veut acquérir les activités souveraines

Le ministère de l'économie a adressé une lettre d'intention à la direction d'Atos pour racheter…

3 jours ago

Arnaud Monier – SNCF Connect & Tech : « Notre moteur, c’est l’innovation et nous procédons par incrémentation »

Directeur Technologie de SNCF Connect & Tech, Arnaud Monier lance une campagne de recrutement pour…

3 jours ago