AMD prépare sa révolution

Avec l’acquisition d’ATI, AMD dispose enfin du moyen de se démarquer de sa
position de challenger…

Même lorsqu’il joue de la carte de l’innovation, AMD reste l’éternel challenger du géant Intel. Pourtant, la donne pourrait changer avec l’acquisition d’ATI.

Certes, il lui sera difficile de se départir de la place de second sur le marché des processeurs, mais comme nous l’a commenté Christian Maby, directeur des ventes Europe de l’Ouest d’ATI, « AMD avait besoin de ça pour évoluer ! »

La logique complémentaire du rapprochement des deux groupes s’impose : synergie des gammes, synergie des plates-formes, synergie géographique, synergie commerciale…

Mais c’est dans les faits que l’on va juger de la pertinence de l’acquisition, et en particulier sur le chipset, dans un premier temps, après la création de la division Chipset dirigée par Philip Eisler, vice-président. AMD va ici profiter de l’expérience d’ATI.

L’annonce d’un nouveau chipset intégrant le CPU (processeur) et le GPU (graphique) ne saurait donc tarder, mais ne marquera qu’une première étape logique. « Notre objectif est d’intégrer le GPU directement dans le CPU, vers 2008/2009« , nous a confirmé Philip Eisler.

Quant à la question de la convergence des technologies du desktop (ordinateur de bureau) et du laptop (ordinateur portable) sur les réseaux sans fil, elle n’est pas encore à l’ordre du jour.

Intégrer le WiFi directement sur le chipset et la carte mère du desktop, à l’image de ce qu’Intel à fait avec Centrino ? « Ce n’est pas à l’ordre du jour, nous laissons cela à nos partenaires qui conçoivent les cartes mères« , lâche Philip Eisler.

S’il est en revanche un partenariat dont AMD s’enorgueillit, c’est celui avec Microsoft sur Windows Vista… En intégrant le graphisme dans sa stratégie, AMD se rend compatible de facto avec les configurations hautes de Vista, comme par hasard celles où s’exécute Aero, la gourmande interface graphique 3D du nouvel OS de Microsoft.

Avec l’acquisition d’ATI, AMD a une nouvelle carte à jouer, et il ne va pas se gêner… Si Intel lui en laisse le temps !