SGI, challenger du Top500 des supercalculateurs et figure déclinante du monde du calcul, nous offre sa recette pour se faire de nouveau remarquer : proposer une alternative aux clusters avec une machine qui exploite au maximum et en masse les dernières technologies x86, associées à un maximum de mémoire vive, pour répondre aux attentes de l’in-memory.
Là où les constructeurs tendent à multiplier les clusters et les nœuds construits sur des architectures classiques, SGI propose un châssis qui embarque des processeurs Intel Xeon E5-4600 de dernière génération, d’une part, un très gros volume de mémoire, d’autre part, et relie le tout via son architecture blade Numaflex. L’astuce est de réunir l’ensemble dans une image mémoire SSI (single system image) qui est en fait une stack matérielle unique pilotable via un Linux SUSE ou Red Hat non modifié.
Un châssis peut accueillir 4 racks boîtiers de montage 10U (au format 19 pouces). 8 lames de 8 sockets peuvent prendre place dans chaque rack. Côté mémoire, SGI UV 2 peut embarquer jusqu’à 16 To par rack, soit un maximum de 64 To par système. La communication de l’ensemble est assurée par 6 connexions Numalink. Rappelons que Numalink est un bus haute vitesse basse latence développé par SGI qui fonctionne comme un cluster de mémoire partagée entre les processeurs. Dans sa dernière version (6), Numalink affiche une performance pouvant atteindre 6,7 Go/s bidirectionnels en pic de bande passante.
Pour bien comprendre l’intérêt de cette solution in-memory, il faut voir une configuration SGI UV 2 comme offrant un bloc mémoire unique (SSI) piloté par une instance d’OS unique. Le calculateur fonctionne alors comme une station de travail qui peut exécuter tout type d’application sous Linux, de la bureautique au calcul HPC (High Performance Computing) – sur le calcul, SGI UV 2 supporte également la technologie Many Integrated Cores (MIC) d’Intel et les accélérateurs GPU Nvidia Quadro et Tesla – le système tirant toute sa puissance d’une part de la densité des technologies embarquées, mais également du scale-out qui permet de multiplier et d’empiler – jusqu’aux limites de la machine – la charge de travail sans qu’il soit nécessaire d’adopter une solution multi-instances qui évolue en cluster.
« Avec cette plate-forme SGI UV de nouvelle génération, non seulement nous avons fait progresser la capacité de mémoire partagée et le nombre de cœurs correspondants, et de plus ces avancées technologiques s’accompagnent d’une baisse du prix du serveur », explique le Dr Eng Lim Goh, CTO de SGI. « La configuration d’entrée de gamme de SGI UV 2 est 40 % moins chère que SGI UV 1. Les chercheurs vont pouvoir investir dans de gros systèmes à mémoire partagée plus accessibles que jamais, au coût total de possession plus avantageux que celui des clusters. »
Un temps pressenti pour constituer le socle d'une suite bureautique AWS, Amazon WorkDocs arrivera en…
Eviden regroupe cinq familles de serveurs sous la marque BullSequana AI. Et affiche le supercalculateur…
Le dernier Magic Quadrant du SSE (Secure Service Edge) dénote des tarifications et des modèles…
Formats de paramètres, méthodes d'apprentissage, mutualisation GPU... Voici quelques-unes des recommandations de l'ANSSI sur l'IA…
À la grogne des partenaires VMware, Broadcom répond par diverses concessions.
iPadOS a une position suffisamment influente pour être soumis au DMA, estime la Commission européenne.