Pour gérer vos consentements :
Categories: Composants

Avec le Steamroller, AMD revient enfin dans la course !

Lors de l’arrivée de l’architecture processeur Bulldozer, AMD espérait révolutionner le marché. Hélas, la montée en gamme des puces Intel a limité les velléités de la firme de Sunnyvale dans le secteur du haut de gamme.

En 2012, la société a lancé la seconde génération de sa nouvelle architecture processeur, nom de code Piledriver, avec de meilleures performances à fréquence égale et de plus hautes fréquences maximales de fonctionnement. Le tout avec une finesse de gravure de 32 nm.

Steamroller… enfin convainquant ?

Malgré ses qualités, l’architecture Piledriver reste dans la ligne de Bulldozer. AMD devrait toutefois changer la donne avec Steamroller, qui propose une profonde refonte technologique.

La firme profite de la conférence Hot Chips pour lever le voile sur les avancées de Steamroller, lequel sera livré courant 2013.

Certaines améliorations offrent de réduire la quantité d’énergie consommée par le processeur. Des portions de la mémoire cache de niveau 2 pourront ainsi être éteintes lorsqu’elles ne sont pas utilisées.

De plus, l’unité de traitement sur les nombres flottants a été optimisée, certaines parties redondantes étant éliminées. La FPU consomme ainsi 15 % à 30 % d’énergie en moins.

Des flux optimisés

Divers changements permettent d’améliorer l’alimentation des unités de calcul en instructions, d’environ 30 % selon AMD.

Imaginez le cheminement du code dans le processeur : il traverse un long tunnel, au terme duquel son exécution est effective. À chaque cycle, l’exécution de plusieurs instructions s’achève (ce nombre dépend en partie de leur complexité). Toutefois, il faut bien plus d’un cycle à une instruction pour traverser l’ensemble du pipeline. C’est ce tunnel qui est ici optimisé.

Voici les trois points sur lesquels AMD a travaillé.

1/ Un tunnel plus large

La prise en charge des instructions est en progrès, avec un nouveau module de décodage à deux voies, soit une par unité de traitement des nombres entiers intégrée dans un bloc processeur, contre une pour deux unités précédemment.

Chaque unité de calcul sur les nombres entiers peut traiter quatre files d’instructions en parallèle. La répartition des instructions sur ces quatre voies est maintenant optimisée et permet d’en faire entrer jusqu’à 25 % de plus à chaque instant.

La suite en page deux…

Page: 1 2

Recent Posts

Ce qui change avec la version 2024 du référentiel d’écoconception de services numériques

Un an et demi après sa publication initiale, le RGESN est mis à jour. Tour…

5 heures ago

Microsoft x Mistral AI : l’Autorité britannique de la concurrence renonce à enquêter

Le régulateur britannique de la concurrence renonce à une enquête approfondie sur le partenariat de…

7 heures ago

MFA obligatoire sur Azure : ce que prépare Microsoft

À partir de juillet 2024, Microsoft imposera progressivement le MFA pour certains utilisateurs d'Azure. Aperçu…

11 heures ago

Informatique quantique : Pasqal vend un premier ordinateur en Arabie Saoudite

La pépite française de l'informatique quantique Pasqal va installer un ordinateur quantique de 200 qubits…

13 heures ago

Incident « sans précédent » chez Google Cloud : que s’est-il passé ?

Le fonds de pension australien UniSuper a vu son abonnement Google Cloud supprimé - et…

13 heures ago

GPT-4o : où, quand et pour qui ?

OpenAI orchestre un déploiement très progressif de GPT-4o, y compris de ses capacités multimodales.

3 jours ago