Quantcast
PME : mesurez-vous aux plus grands !

De la RAM à la bande : les 4 strates du stockage

shutterstock_402053791

Nous vous proposons de suivre le cheminement des données sur une architecture informatique de nouvelle génération, du processeur à l’archivage, en séparant notre parcours en quatre grandes étapes.

Auparavant, tout était simple dans le monde des serveurs et du stockage : le processeur travaillait avec sa mémoire (volatile, son contenu disparaissant en cas de coupure de courant), stockait les données sur un disque dur (non volatile), dont le contenu était archivé sur une bande (non volatile et semi-perpétuelle).

Aujourd’hui, les lignes se brouillent. La mémoire du serveur sert d’espace de stockage aux applications in memory ; différents niveaux de mémoire flash forment le stockage non volatile ; le disque dur mécanique fait à la fois partie de l’équation stockage classique et stockage froid, remplaçant alors la bande ; et la bande fait encore et toujours de la résistance.

Niveau 1 : la mémoire vive

Les processeurs actuels sont capables de faire fonctionner des dizaines de machines virtuelles. Il convient de les alimenter correctement en données, sinon un goulot d’étranglement va se former dès la mémoire vive.

Des puces modernes, comme les derniers Xeon E5-2600 v4 d’Intel, sont capables de piloter de la mémoire en DDR4 cadencée à 2400 MHz, avec une bande passante qui peut atteindre un maximum de 76,8 Go/s. Le tout est boosté par une mémoire cache de dernier niveau de 2,5 Mo par cœur de processeur.

La mémoire vive d’un serveur est fortement sollicitée avec la multiplication des machines virtuelles et des applications lourdes. Mais aussi par le in-memory, qui gagne du terrain dans le monde des bases de données. La mémoire vive est alors utilisée comme un espace de stockage traditionnel, au sein duquel s’effectuent tous les travaux.

Dans ce contexte, la quantité de mémoire vive nécessaire explose. Heureusement, là encore, les serveurs s’adaptent à ce phénomène. Un serveur HPE ProLiant DL380 Gen9 pourvu de deux processeurs Xeon E5-2600 v4 peut ainsi piloter jusqu’à 1,5 To de RAM ; 3 To de RAM, lorsque les modules de 128 Go seront disponibles sur le marché.

Niveau 2 : le stockage interne

Le stockage flash (SSD pour solid-state drive) est devenu le standard de facto au sein des serveurs de nouvelle génération. Toutefois, attention là encore, car plusieurs offres sont à prendre en considération.

Les solutions les plus rapides prennent la forme de cartes PCI-Express, à connecter sur la carte mère du serveur. Elles adoptent toutes aujourd’hui le protocole NVMe, qui permet d’atteindre des débits supérieurs au gigaoctet par seconde : jusqu’à 15 Go/s pour les solutions les plus rapides. Le coût et l’encombrement ne sont toutefois pas intéressants face aux unités de stockage classiques. Aussi ces offres viennent en général accélérer un système de stockage secondaire plus économique.

Viennent donc ensuite des modules plus compacts, prenant la forme de disques durs traditionnels. Les SSD 2,5 pouces sont devenus très populaires au sein des serveurs. Cependant, en fonction du type de contrôleur choisi (classique ou NVMe) et de l’interface (SAS, SATA ou PCI Express), les débits – et les prix – pourront fortement varier. Dans tous les cas, la vitesse de ces dispositifs plafonne aujourd’hui autour de 2 Go/s ; 600 Mo/s en mode SATA 3.

 

 

Des intermédiaires entre RAM et flash

HPE et Intel montent actuellement au front pour rapprocher toujours plus la mémoire centrale de l’ordinateur de sa première couche de stockage non volatile.

Sur ses derniers serveurs, HPE propose la Persistent Memory. Cette dernière est accédée en direct par le processeur, comme de la RAM. Mais son contenu peut être sauvé en mémoire flash en cas de coupure de courant. Une solution qui pourrait répondre à certains problèmes soulevés par les charges de travail in memory.

Intel va pour sa part prochainement proposer une gamme de solutions de stockage PCI Express (les SSD Optane) à haut rendement, basée sur une nouvelle technologie, dix fois plus dense que la RAM et mille fois plus rapide que la NAND flash. La première application pratique de cette technologie sera limitée par les capacités du format PCI Express, mais pourrait dépasser les 15 Go/s, voire les 20 Go/s.


 

Niveau 3 : le stockage réseau

La troisième couche se place en général sur le réseau. Elle permet ainsi de désolidariser le stockage ‘classique’ du serveur lui-même. La mémoire flash est très présente, mais elle peut prendre la forme de puces flash moins endurantes en écriture (et aussi plus abordables) ou être remplacée par des disques durs traditionnels (mécaniques), moins rapides, mais au rapport performance/prix imbattable.

Deux approches s’opposent aujourd’hui dans ce secteur. La première passe par des solutions dédiées, comme le Fibre Channel, pouvant atteindre les 1,65 Go/s. Souvent coûteuse, cette approche est de plus en plus délaissée au profit de l’iSCSI, qui peut arriver au même résultat, mais en passant par un réseau classique. Avec une infrastructure 10GbE, ce sont des débits de 1,25 Go/s qui peuvent être atteints en iSCSI.

L’accès aux données peut également se faire de deux façons différentes. Avec l’approche SAN (Storage Area Network), le système de stockage réseau est vu comme un disque interne, géré en direct par le serveur. L’autre méthode est celle proposée par les NAS (Network Attached Storage). Ici, l’accès se fait au niveau du fichier, et non du disque, au travers de systèmes de fichiers réseau.

Historiquement, le SAN était plutôt l’apanage du Fibre Channel et le NAS celui de l’Ethernet. Toutefois, le SAN iSCSI et le NAS peuvent utiliser la même technologie réseau Ethernet, mais les réseaux resteront séparés. Mieux, certains systèmes permettent aujourd’hui aussi bien un accès bas niveau que fichier, proposant ainsi les deux approches, NAS et SAN en un seul appareil.

Niveau 4 : l’archivage

Une grande partie des données d’un système informatique reste dormante, car inutilisée à un moment x. Il arrive même que des données soient purement et simplement archivées, sans espoir de retour à la vie sur le court terme.

Dans le premier cas, celui de données ‘tièdes’, mieux vaut opter pour un stockage rapide, sur des systèmes capables d’être mis rapidement en et hors fonction. Par exemple des baies ultra-denses de disques durs mécaniques, qui seront allumés automatiquement en cas de besoin.

Dans le second cas, celui de données ‘froides’, la volumétrie est le facteur qui déterminera le choix. Pour un faible volume de données, le Cloud peut être une solution. Pour un volume plus important, la bande reste une valeur sûre. Les bandothèques d’antan ayant laissé place à des robots de sauvegarde sophistiqués, l’accès aux données archivées restera (relativement) aisé.

Dans les deux cas, c’est l’équation CAPEX/OPEX qui est le point central d’une réflexion archivage. CAPEX, avec l’utilisation de technologies dont le rapport capacité/prix devra être aussi attractif que possible. OPEX en réduisant au maximum les besoins en énergie exigés pour assurer la conservation des données non accédées (0 pour la bande et proche de 0 pour un disque dur éteint).

hpehpe