Serveurs : ARM peut-il réellement menacer le x86 ?

0

La guerre opposant RISC à CISC faisait rage dans les années 1980, une époque où la surface de la puce et sa complexité en termes de conception étaient les principales contraintes et où les ordinateurs de bureau et serveurs dominaient de manière exclusive le paysage informatique. Aujourd’hui, l’énergie et la puissance sont les contraintes de base pour la conception des architectures et le paysage informatique est sensiblement différent : la croissance dans les tablettes et les smartphones fonctionnant sous ARM (RISC ISA) surpasse celle des ordinateurs de bureau et ordinateurs portables exécutant x86 (CISC ISA). En outre, malgré sa traditionnelle faible puissance, ARM ISA a fait son entrée sur le marché des serveurs, tandis que le x86 cible de son côté des appareils mobiles.

Des acteurs de poids tels AMD et HP, qui vient de lancer des cartouches ProLiant embarquant des processeurs ARM (32 bits pour la m800 et 64 bits pour la m400), démontrent que les solutions ARM sont pertinentes pour traiter certaines tâches dans les datacenters, notamment suite à l’explosion des usages Web (qui se traduisent par des requêtes simultanées de millions de terminaux mobiles) et l’essor des services en mode Cloud.

Pour ARM, l’angle d’attaque sur le marché des serveurs est assez clair : viser la réduction de la consommation énergétique. S’agit-il d’un facteur suffisamment disruptif pour entrainer dans son sillage tout ou partie de l’industrie logicielle et hardware (semi-conducteurs et serveurs) dans son sillage ? Le rapport performance par watt est-il réellement à l’avantage de l’architecture ARM (face au x86) ? Comment les acteurs du marché appréhendent-ils l’arrivée de serveurs ARM ?

Le marché et ses acteurs peuvent-ils souffrir d’une rupture alors que l’année 2013 s’est traduite par une baisse des revenus pour les constructeurs de serveurs, synonyme d’investissements en berne pour les acquéreurs potentiels de serveurs ? Autant de questions qui méritent un examen attentif dans notre dossier spécial.

I – Etat des lieux du marché des serveurs


Unix qui pleure, Linux qui rit

Avant tout chose, examinons la tendance actuelle du marché des serveurs pour voir si la fenêtre actuelle se prête à l’émergence des serveurs ARM. L’évolution du marché des processeurs pour serveurs épouse celle de la création de datacenters et le renouvellement des machines.

Le secteur a connu une spirale baissière pour les revenus liés aux ventes de serveurs en 2013, indique le cabinet d’analyse IDC. Ainsi, au troisième trimestre 2013, le chiffre d’affaires lié aux ventes de serveurs a reculé de 3,7% par rapport au même trimestre en 2012, à 12,1 milliards de dollars. Un retrait qui confirme la tendance baissière connue tout au long de l’année 2013 puisque les deux premiers trimestres se sont également soldés par des replis.

Ce sont les serveurs Unix qui ont le plus pâti du recul des ventes de serveurs alors que les serveurs Windows ont connu une baisse plus modérée et que les serveurs Linux enregistraient une progression. Ce dernier élément est, nous le verrons, essentiel pour comprendre la problématique à laquelle se trouve confronté Windows avec l’émergence annoncée de serveurs ARM.

La pression s’exerce bien sur les prix puisque le chiffre d’affaires global du secteur a ainsi connu trois baisses successives en 2013 (-5% au T1 à 11,8 milliards de dollars, -3,8% au T2 à 12,35 milliards de dollars et -2,1% au T3 avec 12,34 milliards de dollars) tandis que les volumes ont évolué de respectivement -0,7%, 4% et 1,9% durant ces mêmes trimestres.

On retiendra également l’analyse d’IDC qui note que la baisse du chiffre d’affaires en 2013 pourrait être précurseur d’une forte demande en 2014 liée à un renouvellement des parcs. Une prévision d’ailleurs confirmée par les récents chiffres du second trimestre 2014, qui marquent une reprise. Dans la zone EMEA (Europe, Moyen-Orient et Afrique), les volumes et le chiffre d’affaires sont dans le vert : une première depuis 10 trimestres. Un retour en grâce qu’explique le bond des ventes de serveurs x86. Les microserveurs ARM tombent-ils à point nommé pour cette reprise alors que la pression sur les prix va croissante ?

Le x86 règne en maître

On se souvient de Sun Microsystems qui, en 2007, avait décidé de changer son fusil d’épaule en se tournant vers Intel (au détriment d’AMD) et en proposant plus de serveurs x86 Xeon (au détriment de configurations SPARC intégrant des processeurs maison). Au fil du temps, la domination de l’architecture x86 dans les serveurs ne s’est jamais démentie.

De surcroît, l’adoption massive de serveurs x86 permet à Intel – mais aussi à AMD, second constructeur de processeurs x86 pour serveurs – de proposer des tarifs intéressants grâce à des volumes substantiels. Un cercle vertueux est donc bien en place, expliquant la migration continue des entreprises vers les serveurs x86.

Les microserveurs comme tremplin pour ARM

AMD a récemment indiqué que les premiers serveurs avec puces Opteron ARM seront disponibles dans le courant du 4ème trimestre 2014 (voir l’interview en fin de dossier). Le constructeur américain d’ajouter qu’en 2019, les serveurs ARM occuperont 25% du marché des serveurs.

Une percée qui devrait être amorcée en premier lieu par les microserveurs. Grâce à des particularités en phase avec les spécificités des puces ARM, ces architectures pourraient servir de tremplin à cette famille de processeurs. AMD l’a bien compris en faisant l’acquisition de SeaMicro pour sa technologie d’interconnexion Freedom Fabric d’une part et pour équiper de futurs microserveurs SeaMicro de ses puces ARM « Seattle » d’autre part.

ARM s’appuie donc sur les microserveurs pour faire valoir le rapport performance par watt avantageux de sa technologie. Mais, Intel est déjà présent dans ce secteur – dont il est d’ailleurs le pionnier avec un premier design dévoilé dès 2009 – et compte bien accroître sa présence. Car le marché est porteur.

Si les livraisons de microserveurs sont restées limitées, à quelque 290 000 unités en 2013, c’est tout de même une hausse de 230% par rapport aux 88 000 unités livrées en 2012 (et de 1530% par rapport aux 19 000 unités livrées en 2011). Et, selon le cabinet IHS iSuppli, d’ici 2016, les livraisons de microserveurs devraient atteindre 1,2 million d’unités. Soit une part de marché de 10 % en 2016… contre 0,2 % en 2011 !

II – Le marché est-il prêt pour la « révolution ARM » ?

Très conservateur, le marché des serveurs peut-il accueillir puis digérer un élément aussi disruptif que l’arrivée d’une nouvelle architecture de processeurs ? La demande en serveurs allant croissante tout comme la pression sur les prix, le terreau s’avère favorable pour des microserveurs équipés de puces ARM. L’aspect énergétique pourrait également jouer un rôle.

Silicon.fr s’est tourné vers plusieurs acteurs pour prendre le pouls du secteur. Et évaluer le degré d’attente pour des serveurs ARM.

Pour Johnny Da Silva, responsable du département innovation et marketing au sein de l’hébergeur LinkByNet, il ne fait aucun doute que « la consommation électrique est une métrique indispensable pour la réussite et la délivrance de nos services ». Un point névralgique dans la stratégie du groupe qui dépasse « l’aspect préservation de la planète » et s’avère d’autant plus crucial que « les besoins en puissance de calcul n’ont fait qu’augmenter de manière exponentielle ces dernières années ». Cette stratégie passe par « la virtualisation qui nous a permis de franchir un premier cap important dans cette maitrise en 2006. »

Une virtualisation qui s’accompagne également d’un certain degré de plasticité de la plate-forme « via des notions d’austoscaling de nos environnements ». Concrètement, cette élasticité se fait avec « l’autoscaling vertical (je grossis ma machine virtuelle) et l’autoscaling horizontal (je multiplie ma machine virtuelle en une multitude d’autres machines virtuelles). »

Cette logique de virtualisation, synonyme d’agilité, est si forte qu’elle est au cœur de la stratégie de LinkByNet, même si « la multiplication de petits serveurs peut avoir du sens pour certains types de projet, notamment liés au Big Data ou au VDI (virtualisation des postes de travail) ».

LinkByNet reste donc aux aguets concernant les serveurs ARM, mais précise tout de même que « les environnements virtualisés chez nous resteront encore pour un bon moment sur des plateformes x86 (qui elles aussi évoluent constamment). » Selon Johnny Da Silva, « pour gagner du terrain dans les datacenters, les processeurs ARM doivent d’abord séduire les développeurs et tout l’écosystème logiciel et en particulier l’OS. »

Ikoula, par la voix de Syphax Guemghar, responsable de la production, regarde l’arrivée de serveurs à puces ARM 64 bits de manière pragmatique : « Avant d’envisager un investissement sur cette gamme de processeur, nous allons faire des tests en fonction de ce qui sera disponible et voir le modèle économique que nous pourrons mettre en place. Il ne faut pas non plus oublier qu’Intel a pris les devants avec son CPU Avoton ». Dans un secteur où « tout le monde cherche à diminuer et à rationaliser ses coûts », l’offre ARM est toutefois attendue avec intérêt même si la compatibilité logicielle pèsera pour beaucoup (en particulier celle des hyperviseurs), avec un regard attentif à Qemu. Ce dernier permet « d’émuler une machine ARM sur un PC standard. Qemu est notamment utilisé pour la virtualisation avec KVM ou Xen. »

Pour Syphax Guemghar, il ne fait aucun doute qu’avoir « des acteurs comme Citrix et OpenStack qui supportent ARM est un avantage, surtout si VMware et Microsoft n’ont pas encore franchi le pas. Maintenant VMware est un des acteurs majeur du Cloud, beaucoup attendront qu’il supporte ARM – ce qui n’est pas du tout gagné pour le moment – pour peut-être basculer sur des serveurs de ce type. Par contre, si le choix de l’hyperviseur importe peu, alors oui les serveurs ARM ont une carte à jouer. »

Pour Ikoula, il semble encore prématuré de prendre le train des serveurs ARM même si « ARM a levé un autre frein, en introduisant SBSA. Ce dernier veut être un pendant à la norme x86 et servir de guide au développement hardware et software sur serveurs ARM. »

Fayçal Boujemaa, responsable R&D au sein de Cloudwatt (un des deux Cloud souverain), suit attentivement l’arrivée de serveurs à puces ARM : « le marché et les bénéfices qu’apportent les processeurs ARM font naturellement partie des opportunités que Cloudwatt étudie ». Mais l’équation permettant d’aboutir au bon ratio performance / prix pourrait aussi se résoudre avec des « processeurs Intel x86 (Bay Trail) ». Une nouvelle fois, c’est bien l’aspect logiciel qui semble achopper : « L’architecture de sauvegarde est quant à elle susceptible de pouvoir utiliser plus facilement des processeurs ARM, mais nous préférons attendre une stabilisation logicielle sur le 64 bits avant d’investir en production sur cet environnement ». L’exemple de Baidu qui utilise des serveurs ARM (basés sur des SoC Armada de Marvell) pour son offre de stockage dans le Cloud Baidu Plan, ne fait pas encore des émules : « Baidu a construit une solution à base de processeur ARM pour un usage spécifique qui n’est malheureusement pas reproductible directement dans l’environnement de Cloudwatt. Les SoC Armada de Marvell sont basés sur des cœurs 32 bits dont les performances sont aujourd’hui limitées. »

III – Consommation électrique, la rupture promise par ARM

L’argument n°1 plaidant pour ARM

Annoncés avant l’heure comme ‘PUE friendly’ dans les datacenters (le PUE étant un indice de l’efficacité énergétique de ces derniers), les processeurs à architecture ARM sont également largement associés à la mobilité et donc, à un usage sur batterie et sans refroidissement actif. De ce fait, l’attente est forte sur le terrain de la consommation électrique. ARM surfe d’ailleurs sur cette caractéristique pour faire la promotion de ses architectures.

Il n’en reste pas moins qu’avec un degré de performances plus élevé (par rapport aux processeurs mobiles), la donne sera différente. La moindre consommation électrique et l’efficacité énergétique seront-ils toujours l’apanage des puces ARM ?

Pari tenu selon AMD

Fin janvier 2014, suivant sa feuille de route, AMD a dévoilé l’Opteron A1100, son premier processeur à architecture Cortex-A57. Gravé en 28 nm, il intègre de 4 à 8 cœurs cadencés à 2 GHz, 4 Mo de mémoire de niveau 2 (L2), 8 Mo de cache L3 et peut gérer jusqu’à 64 Go de mémoire vive DDR3 ou DDR4 en dual channel ECC. De surcroît, il supporte 8 lignes PCI-Express 3.0, 8 ports SATA 3 (6 Gbps) et 2 ports Ethernet 10 Gigabit.

Et AMD de préciser que sa consommation (celle de l’A1100 en version octocoeur) est voisine de celle d’un Opteron X2150 (intégrant 4 cœurs Jaguar x86) : 25 watts pour l’A1100 contre 22 watts pour l’Opteron X2150. Sauf que les performances offertes sont très différentes. Cadencé à la même fréquence d’horloge, la puce Seattle offre un regain de capacités de calcul dans un rapport de 2,5 fois. Les chiffres publiés par AMD tendent donc à montrer que, même en versions serveurs, les puces ARM conservent un avantage en matière de frugalité énergétique.

Pourquoi Intel n’a pas encore perdu cette bataille

Dans les années 1980 et 1990, les concepteurs de puces ont lutté pour la supériorité de l’architecture RISC ou CISC. Selon un article récent (“Power Struggles: Revisiting the RISC vs. CISC Debate on Contemporary ARM and x86 Architectures”) présenté lors du Symposium 2013 IEEE sur le High Performance Computer Architecture, le débat se focalisait auparavant sur ​​la surface de la puce et la complexité de la conception du processeur, mais « aujourd’hui, l’énergie et la puissance sont les principales contraintes de conception ». Ce territoire est familier pour ceux qui suivent la lutte qui oppose ARM à Intel : le premier affirme qu’il peut apporter, avec son architecture, l’efficacité énergétique sur le marché des serveurs pour datacenters, rognant ainsi sur les ailes du x86 d’Intel. Mais l’une des principales conclusions de l’étude est que ni les architectures à jeu d’instructions ARM, ni celles à jeu d’instruction x86 ne sont fondamentalement plus efficaces. C’est la manière dont ces ISA (instruction set architecture) sont mises en œuvre qui affecte l’efficacité. Or, cette mise en œuvre est un choix de conception qui implique nécessairement un compromis.

En d’autres termes, comme on pouvait s’y attendre, la tâche de ARM (c’est-à-dire la tâche de designers utilisant l’ISA ARM) est plus compliquée que d’adopter des processeurs mobiles et les réutiliser dans les serveurs. Seulement certaines caractéristiques relatives à l’efficacité des appareils mobiles seront reportées sur les processeurs pour serveurs qui offriront des performances élevées. De son côté, Intel a toujours concentré ses modèles de processeurs sur la performance plutôt que sur l’efficacité énergétique. Pour cette raison, le fondeur n’a pas réussi à percer dans la mobilité, mais, pour cette même raison, il domine dans les datacenters. En se déplaçant vers des conceptions plus efficaces d’un point de vue énergétique, il lui faudra cependant sacrifier un peu en performances.

Le document mentionné ci-dessus, qui est basé sur une étude réalisée par des chercheurs de l’Université du Wisconsin à Madison, confirme que ni Intel ni ARM ne possède donc un avantage fondamental qui pourrait donner à l’un ou l’autre une position dominante sur tous les marchés. En fait, chaque entreprise a toujours mis l’accent essentiellement sur ​​une caractéristique lors de la conception : l’efficacité ou la performance, généralement au détriment de l’autre. Comme Intel tente d’accroître l’efficacité de ses offres et ARM tente d’ajouter plus de performance, les deux sociétés sont susceptibles de se rencontrer quelque part entre ces deux opposés. Les compétences en termes de conception peuvent déterminer qui obtiendra un léger avantage, mais aucune puce ne pourra s’affranchir d’un compromis entre performances et efficacité énergétique.

Cette même étude s’appuie sur une comparaison établie pour une même capacité technologique. De ce fait, Intel pourrait donc prendre un avantage grâce à ses technologies avancées CMOS plus fines. Les puces ARM sont actuellement principalement gravées en 28 nm (pour la technologie la plus fine) alors qu’Intel grave ses processeurs Haswell en 22 nm. Intel détient également un avantage au niveau du transistor avec sa technologie de MOS FinFET « 3D ».

Face aux ARM 64 bits, Avoton pour Intel et Berlin pour AMD

S’il y a bien une société qui veut tordre le cou à l’idée reçue selon laquelle, dans les datacenters, les puces ARM seront les plus efficaces énergiquement, c’est bien Intel. La firme n’y va pas par quatre chemins et annonce d’ores et déjà que le rapport de performance par watt sera à l’avantage de ses puces Avoton face aux processeurs ARM Cortex-A50. Ces nouveaux SoC d’Intel visent à délivrer un niveau élevé en termes de performances par watt à des datacenters contraints par la consommation électrique.

HP l’a bien compris : ainsi, les puces Atom C2000 64 bits, alias Avoton, seront notamment intégrées dans les serveurs Moonshot Proliant M300 avec une densité extrême : jusqu’à 45 Avoton à 8 cœurs dans un châssis de 4,3 U.

Intel n’hésite pas à comparer le rapport performance par watt des puces Avoton au X-Gene d’Applied Micro, le premier SoC ARM 64 bits pour serveurs à avoir été annoncé.

AMD mise également beaucoup sur ses futurs APU Opteron x86 pour serveurs. Ainsi, la nouvelle gamme de CPU et d’APU (accelerated processing unit) « Berlin » (intégrant les nouveaux cœurs « Steamroller ») destinée aux serveurs rack haute densité sera lancée dans les prochains mois avec un rapport performance par watt très agressif. Ces processeurs, qui devraient doubler la performance des Kyoto, remplaceront les Opteron 3300. Succédant aux Opteron 6300 et 4300, les CPU « Warsaw » (compatibles avec le socket G34) viendront également étoffer le catalogue produit d’AMD. Ils sont optimisés pour les charges de travail virtualisées, les besoins de calcul et d’analyse de données.

Fort de son expérience, AMD continue donc logiquement à jouer la carte des puces x86 pour serveurs. Mais, la société estime également que l’ère du « one size fits all » – autrement dit du x86 pour tous les besoins – est en passe d’être révolue et table également sur l’essor des serveurs ARM à laquelle elle entend largement participer.

IV – Les enjeux

Une pression sur les coûts

Les coûts élevés de la gestion de serveurs gourmands en énergie pourraient favoriser l’adoption d’ARM. En effet, le coût pour alimenter et refroidir une machine domine le coût total de possession d’un serveur. Il dépasse le coût du matériel lui-même d’un facteur sept. Selon ARMdevices.net, IDC indique que tous les serveurs à travers le monde ont consommé pour 44,5 milliards de dollars en électricité en 2010 et requis la construction de dix usines supplémentaires d’alimentation électrique.

La question de la consommation électrique est donc centrale pour des raisons de capacité de production et de coût.

Plus que jamais, l’envolée des coûts énergétiques et la croissance continue de la demande semblent devoir orienter le marché vers les serveurs qui présenteront des rapports performances par watt les plus élevés, afin de contenir les coûts opérationnels des datacenters.

Un levier de croissance pour les puces ARM

Pour ARM et ses partenaires, le marché des serveurs pourrait être synonyme de croissance. Cette croissance était jusqu’alors largement assurée par le marché de la téléphonie mobile puisque la quasi-totalité des modèles y sont équipés de puces à technologie ARM.

Le secteur de la téléphonie mobile a certes connu une croissance substantielle ces dernières années, mais certains marchés arrivent d’ores et déjà à saturation. Les offres d’entrée et de milieu de gamme et les marchés des pays émergents sont désormais les principaux leviers de croissance pour la technologie ARM. Mais, cette demande s’articule principalement autour des licences Cortex-A7 mais aussi Cortex-A9, génératrices de royalties moins élevées que l’architecture Cortex-A15 ou Cortex-A50.

Avec Cortex-A50 déclinée en Cortex-A53 et Cortex-57, ARM espère insuffler un second souffle au secteur de la téléphonie mobile mais aussi conquérir de nouveaux segments de marché. En ligne de mire : les microserveurs.

Plusieurs fabricants de puces avaient déjà montré un intérêt marqué pour concevoir des processeurs ARM destinés à des serveurs. C’est le cas de Marvell avec ses SoC Armada dont certains modèles 32 bits équipent d’ores et déjà les serveurs de Baidu pour son offre de stockage dans le Cloud, Baidu Pan. Calxeda avait également été pionnier en la matière mais n’aura pas survécu ; la faute probable à une arrivée trop rapide sur un marché encore embryonnaire. Rappelons enfin qu’AMD a sur sa feuille de route des puces ARM destinées aux serveurs. Le constructeur américain a dévoilé l’Opteron-A1100, la première d’entre elles, fin janvier 2014.

Répondre à l’évolution du marché des serveurs

Trois tendances fortes dans les datacenters vont orienter la demande pour les futurs serveurs :

– La première d’entre elles concerne des serveurs à très faible consommation d’énergie. On parle même de serveurs ELE (pour Extreme Low-Energy). Les facteurs d’économie d’énergie peuvent en effet stimuler la demande pour ce type de serveurs. Selon Gartner, ces serveurs représenteront 2,4% du marché total de serveurs x86 d’ici 2015. Ces serveurs pourront être utilisés pour des tâches simples telles que les pages web statiques, la diffusion de contenu, les services web, l’analyse Apache Hadoop et le memcached (c’est-à-dire un système de mise en cache distribué)… Dans ce segment, les serveurs ARM ont bien entendu une carte à jouer.

– La seconde réside dans le VDI (Virtual Desktop Infrastructure). La virtualisation du bureau de travail est synonyme de réduction de coûts en simplifiant l’administration. Il concerne aussi bien les grandes entreprises ou le secteur public que les petites structures. Les serveurs ARM peuvent participer à cette tendance, même si le logiciel hérité développé pour le x86 joue en leur défaveur et qu’une offre complète d’hyperviseurs sera nécessaire pour espérer percer sur ce segment.

– Enfin, les puces ARM se positionnent sur le segment des serveurs dits ‘hyperscale’. Il s’agit d’immenses datacenters regroupant un très grand nombre de serveurs comme en possèdent des sociétés telles qu’Amazon, Facebook et Google. Ce secteur représente d’ores et déjà, selon Gartner, 11% des livraisons de serveurs et pourrait peser 17% du marché total des serveurs x86 d’ici 2015.

Ce marché est singulier car il ne concerne qu’une dizaine de clients. D’énormes demandes passées par quelques clients compriment les marges des équipementiers et sont synonymes de compétition acharnée. Là encore, les serveurs ARM répondent aux exigences de ces datacenters et de cette demande.

Facebook regarde ainsi de près le passage de ses fermes de serveurs du x86 au ARM. Avec pour ambition de réduire la consommation d’énergie. Une chose rendue possible parce que la demande de Facebook serait tellement importante en unités, support et maintenance qu’elle permettrait à un constructeur de puces de développer un SoC ARM taillée pour la demande de ce seul client.

Google envisagerait également d’équiper ses datacenters de SoC ARM. Une récente rumeur prête même à la société la volonté de concevoir elle-même ses puces. Google est un de ses principaux clients d’Intel. Le passage de la firme de Mountain View aux puces ARM constituerait donc un sérieux désaveu pour le géant du silicium. Notons qu’en Chine, Baidu a déjà équipé depuis début 2013 certains de ses datacenters de serveurs ARM Marvell pour son offre Baidu Pan de stockage dans le Cloud.

V – Le logiciel, bras armé incontournable

Plusieurs sociétés se sont lancées dans la conception de puces ARM 32 bits et 64 bits pour serveurs et le développement de serveurs à puces ARM. Mais le logiciel constitue bien le carburant de la fusée et notamment le logiciel open source.

Le précédent instructif de l’Intel Itanium

Avec Itanium, Intel avait fait le pari d’introduire une nouvelle architecture disruptive apportant un gain substantiel en terme de performances. Cela n’a pas suffi pour entrainer l’industrie du logiciel dans son sillage.

En effet, HP a déjà effectué la migration de sa série de serveurs Integrity Superdome vers des processeurs x86 au lieu d’Itanium. Dernier bastion des Itanium, la plate-forme de serveurs à haute disponibilité NonStop de HP va suivre la même voie. Ce sont des processus Xeon (E7-8800 v2) qui vont remplacer les Itanium.

Le fait qu’un acteur aussi puissant qu’Intel n’ait pas réussi à imposer ses processeurs Itanium au plus grand nombre et sur le long terme est en soi une leçon pour l’ensemble de l’industrie.

AMD : un kit de développement avec support de logiciels

AMD dispose d’une expérience de près de 15 ans dans le marché des serveurs. En lançant des puces ARM pour serveurs, la société américaine accrédite l’avenir des serveurs ARM et va entrainer dans son sillon d’autres acteurs. AMD valide tout simplement l’idée que des puces ARM sont pertinentes dans des serveurs.

Mais la société ne se contente pas de concevoir le premier étage de la fusée. Elle l’accompagne jusqu’au pas de tir. En effet, AMD va proposer un kit de développement pour ses puces ARM sous la forme d’une carte mère au format micro-ATX avec 4 emplacements DIMM pour accueillir jusqu’à 128 Go de DRAM DDR3, des connecteurs PCI Express configurables en x8 ou dual x4 ports et 8 connecteurs SATA.

Côté logiciel, AMD est également présent et soutenu par un certain nombre d’acteurs puisque le kit de développement disposera d’une distribution Linux Fedora pour ARM (grâce au soutien de Red Hat), accompagnée des pilotes et d’applications web telles que le logiciel libre Apache HTTP Server, un moteur de tables MySQL et les langages de programmation PHP, Perl, Python, Ruby, Java 7 et Java 8. Le kit inclut également un outil complet GNU/Linux pour développer des applications. Le démarrage est assuré via l’environnement de boot sécurisé au standard UEFI (Unified Extensible Firmware Interface). AMD participe aussi à la définition du SBSA, une plate-forme standard pour les serveurs ARM 64 bits.

SBSA : une plate-forme standard pour serveurs ARM 64 bits

Mobilité, objets connectés dans la mouvance de l’Internet des objets, embarqué et maintenant serveurs : il est dit qu’aucun domaine n’échappera à ARM. Reste qu’actuellement, l’écosystème (logiciel notamment) doit être mis en œuvre. Sur ce front, les choses pourraient aller très vite. Il suffit de voir l’engouement des géants des services (Google, Facebook mais aussi Baidu en Chine) pour les serveurs ARM. Un engouement que l’on retrouve dans la définition d’une plate-forme standard pour les serveurs ARM 64 bits avec SBSA  (Server Base System Architecture). SBSA se tourne autant vers le hardware que le software pour que l’ensemble fonctionne en symbiose et constitue une plate-forme commune.

Pour valider le modèle des serveurs ARM, mutualiser les efforts et les initiatives, ARM a en effet défini la plate-forme SBSA qui constitue un véritable cahier des charges.

A titre d’exemple, un système d’exploitation écrit pour être compatible avec la plate-forme pourra tourner sur n’importe quel système compatible SBSA. A cet effet, des composants de base sont spécifiés tout comme des firmware, des interruptions, la gestion d’entrées/sorties, des process de boot, des standards minimums (les contrôleurs USB 3.0 devront, par exemple, répondre au standard XHCI 1.0), etc.

SBSA permettra également aux logiciels de tirer parti des spécificités des différents SoC ARM, notamment en termes d’accélération matérielle, un élément clé pour les puces ARM qui, pour certaines (GPU Mali-T6xx d’ARM par exemple), supportent le GPGPU compute (General Purpose Graphical Processor Units compute). Depuis 2011, Nvidia propose même un kit de développement permettant d’effectuer une accélération matérielle sur un GPU CUDA depuis une puce ARM.

SBSA est également là pour jouer le rôle de garde-fou. Le modèle d’ARM étant celui des licences, de nombreux acteurs sont et seront amenés à concevoir des puces basées sur les technologies du constructeur britannique. Ceci est de nature à dynamiser le marché des puces ARM pour serveurs, mais peut aussi rapidement devenir synonyme de fragmentation. SBSA est donc là pour fournir un socle commun sans pour autant empêcher les constructeurs de rivaliser les uns avec les autres grâce à des astuces de conception et des innovations. Cette rivalité entre les fabricants de puces assure une utilisation ultra optimisée des architectures ARM sur lesquelles les puces sont basées (modèle qui a fait ses preuves dans la mobilité).

SBSA est soutenu par de nombreux partenaires issus de tous les horizons : Canonical, Suse, Citrix (hyperviseur Xen) et Red Hat mais aussi des équipementiers tels que Dell et HP ou encore des fabricants de puces comme AMD, Cavium, Applied Micro et Texas Instruments. Une liste à laquelle on peut aussi ajouter le nom de Microsoft.

Le renfort de Microsoft

Les principaux acteurs de Linux que sont Canonical, Suse et Red Hat soutiennent ARM. Un point qui n’a probablement pas échappé à Microsoft. L’éditeur a ainsi annoncé lors de l’Open Compute Summit 2014 (qui s’est tenu les 28 et 29 janvier 2014 à San Jose) qu’elle venait grossir les rangs du groupe de sociétés travaillant à la standardisation de la plate-forme serveurs ARM.

On peut donc s’attendre au portage sous ARM de Windows Server et de l’hyperviseur Hyper-V même si rien n’est officialisé, l’éditeur étant resté laconique sur ce point. Microsoft a d’ores et déjà porté la version client de son système d’exploitation Windows 8 vers ARM avec Windows RT.

Les technologies de virtualisation indispensables

Dans un contexte tendu économiquement, la demande de serveurs virtualisés dans les datacenters, qu’ils soient externes ou internes à l’entreprise, va croissante.

Dans tous les cas, la virtualisation passe par un hyperviseur. L’occasion est belle pour les puces ARM qui peuvent ainsi entrer dans les datacenters avec serveurs virtualisés alors qu’elles sont encore largement cantonnées aux NAS. A condition d’être supportées par les principaux hyperviseurs du marché.

Citrix s’y est attelé avec son hyperviseur Xen pour les puces Cortex-A15, une plate-forme propice à la virtualisation grâce à un support matériel adapté. Contrairement au leader incontesté de la virtualisation, VMware (qui se concentre sur la virtualisation des terminaux mobiles), la version ARM de Xen (Citrix) est destinée aux serveurs. Cette version de Xen est ainsi capable de faire tourner jusqu’à deux systèmes en parallèle sur un même processeur.

KVM, un autre hyperviseur open source, a été adapté à l’architecture ARM 32 bits (Cortex-A15 depuis la fin 2012) puis ARM 64 bits sous forme d’hyperviseur complet. Ce dernier est capable de faire tourner des OS de manière virtualisée en 32 bits ou 64 bits.

Seul VMware n’est pas convaincu par l’émergence des serveurs ARM. Pat Gelsinger, le Pdg de la société (mais également ancien d’Intel), estime que les puces ARM resteront cantonnées à des niches dans le secteur des serveurs. Selon lui, même une amélioration de 25% de la consommation électrique par rapport aux puces x86 ne modifiera pas la donne.

OpenStack pour ARM

Des contributeurs du projet open source de plate-forme Cloud OpenStack (Cisco, Dell, Equinix, HP, NTT mais aussi Calxeda à l’époque) ont d’ores et déjà planché sur des Cloud OpenStack pour serveurs ARM. L’initiative est à l’état de zone dans TryStack.org, la sandbox du projet qui permet de tester OpenStack.

Deux zones existent donc dans TryStack : l’une pour effectuer des tests logiciels sur des architectures x86 supportées par OpenStack et une autre pour des tests sur des architectures ARM. Cela signifie que la demande pour déployer OpenStack sur des infrastructures Cloud ARM existe bel et bien.

A lire aussi :
Suresh Gopalakrishnan, AMD : « nos clients veulent une alternative au x86 »

Crédit photo : Kjetil Kolbjornsrud / Shutterstock