LIVRES: ‘Architecture des ordinateurs, approche quantitative’

Régulations

Sur quels critères choisir un ordinateur ?
Quelles sont les conséquences du choix d’une configuration inadaptée?
Quel est le rôle du système d’exploitation sur la performance?
Quelles sont les idées préconçues sur le choix de technologies?
Auteurs: John L. Hennessy & David Patterson
Edition: Vuibert

“Ordinateur”? Le concept d’architecture d’ordinateur a été inventé par IBM lors de l’annonce de la série 360 en… 1964. L’idée était d’établir une distinction entre l’organisation des services proposés dans le cadre d’un modèle logique, et les technologies chargées de les mettre en ?uvre ce qui a pour conséquence de donner une vision à long terme sur la façon de rendre le service informatique. Le fil conducteur de l’ouvrage est de bien insister sur le fait que le modèle d’architecture d’un ordinateur du marché est la résultante d’un ensemble de compromis destiné à des familles de besoins dont les exigences sont parfois incompatibles. Le PC donne une bonne idée de cette dualité qui est conçu sur une structure du bus unique de la carte mère. Sur ce modèle on va réaliser des postes de travail dont la contrainte est la rapidité de l’affichage en mode graphique, et les serveurs qui doivent fournir de multiples services. Les problèmes qu’ont rencontré la SNCF avec sont service de réservation illustre bien les conséquences de l’inadaptation d’un choix d’architecture à une évolution sporadique du trafic. Après avoir présenté les principes de bases qui président à la conception des ordinateurs, les auteurs vont analyser les principaux composants de leur architecture et leurs variantes. Le jeux d’instruction et le rôle des microcodes qui pose la question de la performance et celle de la portabilité ascendante du code. La question de la gestion du parallélisme du traitement des instructions et du rôle que joue ce service dans la conception du des processeurs et leu évolution vers le concept dit de Tread level Parallèlism qui consiste à assurer le parallélisme non pas d’instructions mais de processus concourants. C’est l’occasion également de détruire certaines illusions comme celle qui affirme que plus la fréquence d’horloge est élevée, plus rapide est le processeur. La question de la hiérarchie de mémoire, et le rôle qu’elle joue dans les gains de performance compte tenu des délais qu’exige l’exécution des calculs d’adresse. Les problèmes que posent la gestion des grands serveurs Internet soulève la question des architecture multiprocesseurs. Comment prendre en compte le maximum de session et à moindre coût fournissant un temps de réponse correcte et à moindre coût. Les solutions proposées s’inscrivent dans le cadre des familles de multiprocesseurs. Couplages lâches ou étroit telle est la question , étant entendus que la gestion des mécanismes de synchronisation pénalise à un certain niveau de charge. Le développement des architectures de stockage en réseau, les SAN, constitue la dernière étape de l’évolution des architectures d’ordinateurs. Le principe consiste à séparer physiquement mes fonctions de traitement de celles de stockage. Ces dernières devenant partageables par plusieurs unités distantes. Cette nouvelle avancée ouvre des perspectives infinies dans la constitution de réseau d’ordinateurs au travers d’Internet qui sont désormais capables de créer des réseaux de services. Cet ouvrage imposant, plus de mille pages, est le fruit d’un enseignement délivré dans les universités de Berkeley et de Stanford, est conçu comme un support de cours destiné aux étudiants et architectes de systèmes d’informations confronté au choix de plate-formes en fonction de besoins. Pour information, sur le site www.tpc.org sont enregistré de nombreux benchmarks concernant une grande variété de configuration.


Lire la biographie de l´auteur  Masquer la biographie de l´auteur