Pour gérer vos consentements :

Stockage primaire : que surveiller après la révolution flash ?

QLC, SCM, NVMe-oF… Trop tôt pour une adoption massive dans les solutions de stockage primaire ? C’est ce qui ressort du dernier Magic Quadrant consacré à ce marché.

La première de ces technologies (quadruple-level cell) améliore la densité de la mémoire flash, en stockant quatre bits par cellule. La deuxième (Storage Class Memory) associe les capacités de la NAND et de la DRAM. La troisième (NVM Express over Fabrics) étend le protocole NVMe au-delà du bus PCIe, sur les interfaces Ethernet et Fibre Channel.
Pour toutes, Gartner fait un constat : encore trop chères et perçues comme insuffisamment matures pour des déploiements à grande échelle. L’heure est plutôt à la prolongation de la durée de vie des systèmes existants, qui satisfont déjà les besoins pour la plupart des charges de travail.

Il y a des technologies qui « prennent » davantage. Parmi elles, l’IA. Dans une certaine mesure pour la maintenance prédictive du matériel. Mais surtout pour adapter dynamiquement le stockage aux besoins des applications.

Autre élément qui se généralise chez les principaux offreurs : l’intégration avec les clouds publics. Qui sont autant des extensions (tiering, backup, récupération après sinistre)… que des concurrents, à l’instar des systèmes hyperconvergents.

Gartner distingue trois segments sur le marché du stockage primaire : baies flash, baies hybrides (flash + HDD) et SDS (stockage défini par logiciel). Principale fonction de ces produits : assurer le traitement massif de données structurées. Mais aussi, entre autres, la consolidation d’applications, la virtualisation et le stockage persistant.

Stockage primaire et cloud public : jonction indispensable ?

Qu’attendre, aujourd’hui, dans le cœur fonctionnel d’une solution de stockage primaire ? Essentiellement :

– Des services de données natifs (gestion de la capacité, protection contre la perte de données, réplication locale et distante…)
– Du stockage sur disque dur et/ou SSD, en architecture scale-up ou scale-out
Des protocoles bloc (Fibre Channel, iSCSI…) et/ou fichier (NFS, SMB…) au niveau hôte

Parmi les capacités que Gartner juge « additionnelles » (et qui n’étaient pas éliminatoires pour le Quadrant) :

–  Du SDS sur site ou en cloud, conçu pour du matériel standard ou spécialisé, en architecture scale-out désagrégée
– Une composante AIops
– Du STaaS (stockage en tant que service : catalogue de produits avec provisionnement par API et gestion centralisée)
– Des baies flash avec NVMe-oF

Pour figurer au Magic Quadrant, il fallait proposer ses produits sous la forme de configurations autonomes, mais sans point de défaillance unique. Les offres SDS devaient quant à elles pouvoir fonctionner sur au moins une plate-forme de cloud public ou de cloud hybride et prendre en charge l’intégration avec la marketplace du fournisseur.

Sur le volet business, les fournisseurs classés entrent dans les clous sur les critères suivants :

– Au moins 50 M$ de revenus sur le stockage primaire entre le 1er avril 2020 et le 31 mars 2021
OU au moins 500 clients dont l’effectif dépasse 500 personnes
– Plus de 100 employés à temps plein au 1er juin 2021
– Un prix de vente moyen d’au moins 49 999 $ par baie
– Des ventes dans au moins deux des zones suivantes : EMEA, Amérique du Nord, Asie-Pacifique (et au moins 20 clients par zone)

Illustration principale © grover_net – Visualhunt

Recent Posts

Legapass : comment protéger ses données privées jusque dans l’au-delà

Comment gérer les données numériques après la mort de son détenteur ? La jeune pousse…

3 jours ago

Iris, un assistant d’IA conversationnelle en langue des signes

Ivès, expert en accessibilité de la surdité, s’est associé à Sopra Steria et à IBM…

3 jours ago

GenAI : le Royaume-Uni poursuit ses investigations sur les partenariats de Microsoft et Amazon

L'Autorité de la concurrence et des marchés (CMA) a lancé la phase de recherche de…

4 jours ago

Clients de VMware : les raisons de la colère

Broadcom remplace pas moins de 168 logiciels VMware par deux grandes licences de location correspondant…

4 jours ago

Laurent Carlier – BNP Paribas Global Market : « L’IA permet de modéliser des relations plus complexes, mais il faut rester prudent »

La banque d’investissement utilise l'IA pour proposer des stratégies individualisées, en termes de rendement et…

4 jours ago

Open Compute Project : les datacenters partagent des bonnes pratiques pour l’environnement

OVHCloud partage ses efforts environnementaux au sommet de l’Open Compute Project qui se tient à…

5 jours ago