Pour gérer vos consentements :
Categories: ComposantsDatacenters

Stockage : 2012, odyssée du SSD ?

La production des disques durs mécaniques tout juste relancée après une pénurie d’envergure, a permis d’ouvrir une brèche pour le stockage SSD, fort d’une percée significative sur l’exercice 2011 et désormais entrevu tel un marché d’avenir, au prix d’innovations technologiques doublées d’un travail en amont auprès du client.

Face aux dispositifs magnétiques traditionnels, la mémoire flash présente bien des avantages. Perfectibles à plus d’un titre, les premiers représentants de la clique Solid State Drive ont laissé place à des produits plus élaborés à mesure que les années ont imposé le concept comme un digne successeur empreint de performances supérieures en lecture comme en écriture.

En parallèle, la diminution du temps de réponse des SSD leur confère une adéquation particulière vis-à-vis des environnements virtualisés. L’optimisation de leur enveloppe thermique diminue par ailleurs l’échauffement et améliore l’autonomie des terminaux qui en sont équipés. Les nuisances sonores sont quasi nulles et l’échelle tarifaire tend vers une généralisation du seuil de l’euro par gigaoctet. Un portrait flatteur qu’il convient toutefois d’améliorer, selon Nexsan, lui-même fabricant de NAS et auteur d’une étude en ce sens.

Cerner les usages du SSD

Le consensus semble établir une conclusion évocatrice : les besoins du client priment. À cet égard, il incombe aux prestataires techniques de multiplier les études de cas pour accoucher d’une segmentation qui régisse les terrains de prédilection des différents types de mémoire flash (SLC, MLC, eMLC), les niveaux de cache applicables à un écosystème logiciel donné ou encore la définition d’un équilibre entre performance pure et fiabilité, la durée de vie théorique des modules MLC se limitant à quelque 10 000 cycles d’écriture.

D’une telle analyse découleront des optimisations techniques visant à concrétiser un semblant d’osmose entre les maillons disparates d’une chaîne à laquelle l’agglutination d’interfaces confère de sévères limitations. La réduction du temps de latence et la multiplication du nombre des opérations d’E/S (en théorie, un bon million, contre moins d’une centaine de milliers à l’heure actuelle) ne s’effectuera pas tant au niveau du SSD lui-même, mais en aval, notamment au niveau des contrôleurs, moyennant une standardisation, par exemple sous l’égide du PCI Express.

Recent Posts

Legapass : comment protéger ses données privées jusque dans l’au-delà

Comment gérer les données numériques après la mort de son détenteur ? La jeune pousse…

7 heures ago

Iris, un assistant d’IA conversationnelle en langue des signes

Ivès, expert en accessibilité de la surdité, s’est associé à Sopra Steria et à IBM…

11 heures ago

GenAI : le Royaume-Uni poursuit ses investigations sur les partenariats de Microsoft et Amazon

L'Autorité de la concurrence et des marchés (CMA) a lancé la phase de recherche de…

1 jour ago

Clients de VMware : les raisons de la colère

Broadcom remplace pas moins de 168 logiciels VMware par deux grandes licences de location correspondant…

1 jour ago

Laurent Carlier – BNP Paribas Global Market : « L’IA permet de modéliser des relations plus complexes, mais il faut rester prudent »

La banque d’investissement utilise l'IA pour proposer des stratégies individualisées, en termes de rendement et…

1 jour ago

Open Compute Project : les datacenters partagent des bonnes pratiques pour l’environnement

OVHCloud partage ses efforts environnementaux au sommet de l’Open Compute Project qui se tient à…

2 jours ago