Stockage : trois innovations déterminantes

CloudData & StockageDatacentersStockage

Les mutations de l’infrastructure de stockage ont un impact direct sur le potentiel d’innovation des entreprises et l’amélioration de leurs processus.

Traditionnellement, les données ont transité vers les applications pour que ces dernières les consomment. Les systèmes de fichiers de nouvelle génération se changeant en systèmes d’exploitation, il est temps que les applications fassent le chemin jusqu’aux données.

Dans le domaine du stockage, diverses technologies coexistent. Le prix de ces technologies étant directement corrélé à leur performance, il semble évident de placer les données “chaudes” sur les disques les plus rapides et les plus coûteux et les données froides dans des éléments plus lents et moins chers. Des algorithmes déplacent automatiquement les données au sein d’un système en fonction de leur utilisation et de la hiérarchie de stockage en mémoire.

L’association de disques dur à plateaux (HDD) et de disques électroniques (SSD) au sein de systèmes fournit ainsi le meilleur ratio prix par Terra-Octet (To), notamment pour le stockage des données non-structurées telles que les media, les archives, les fichiers et les objets.

Conformément à cette logique économique, les données dites secondaires, par essence des données “froides”, trouvent en général leur place sur des technologies HDD.
Et c’est une bonne chose à condition de ne pas encore avoir amorcé des démarches d’utilisation de ces données dans des environnements DevOps ou de valorisation par le biais d’application analytiques.
Car dans le cas contraire, il faut se plier à la nécessité de déplacer les données lorsque l’on a besoin d’elles, et de supporter – notamment – les temps de copie et d’écriture, sans compter les risques d’erreur générés par le déplacement des données.

Trois innovations déterminantes en matière de stockage

– La première des innovations récentes dans le domaine du stockage a principalement consisté en la création de systèmes de fichiers susceptibles d’intégrer de nouveaux disques dans un pool de stockage existant, augmentant en conséquence la quantité de stockage physique et logique disponible.

– La seconde innovation a permis que ce stockage soit disponible en mode “multi-tenant”, ce qui permet aujourd’hui à des fournisseurs de service de vendre du stockage à leurs différents clients sans multiplier les silos. Le stockage n’est plus nécessairement dédié.

– Pour finir, les innovations relatives au système de fichiers ont rendu possible des avancées majeures dans le datacenter. La dernière innovation en date promet de transformer radicalement, non plus la manière dont les données sont stockées et organisées mais bien la manière dont les entreprises peuvent en retirer de l’information, des insights. Le système de fichier se transforme peu à peu en système d’exploitation hébergé sous les données et susceptible de servir d’hôte pour des applications répondant aux besoins les plus complexes et les plus variées des entreprises.

L’idée de cette nouvelle génération de systèmes de fichiers est d’amener les applications jusqu’aux données plutôt que l’inverse pour aider les entreprises à retirer plus d’intelligence de leurs données et à limiter, voire réduire l’étalement de l’infrastructure qui contribue au problème des silos de données et à celui de la fragmentation massive des données.

Permettre aux utilisateurs de créer et exécuter des applications directement à l’endroit où leurs données se situent ouvre la voie à une approche beaucoup plus simple et efficace de la gestion des infrastructures.

De nouvelles opportunités à l’ère de la transformation numérique des entreprises

Mais ces mutations de l’infrastructure de stockage ont aussi un impact direct sur le potentiel d’innovation des entreprises ou même plus simplement d’amélioration de leurs processus.

La clé pour atteindre et maintenir une position de leadership sur un marché réside dans la capacité à transformer les données en insights qu’il est possible d’actionner.

Le problème pour la plupart des organisations, c’est qu’elles n’analysent que les données primaires, leurs données de production, et qu’elles n’ont pas ou difficilement accès aux énormes quantités de données secondaires qu’elles stockent pourtant.

Si l’on utilise la métaphore de l’iceberg, les données primaires représentent la partie émergée et représentent environ 10 à 15% de la totalité des données.

La partie immergée, ce sont toutes les données secondaires invisibles pour la plupart des organisations, représentant les 85 à 90 % restants. Lorsqu’il s’agit d’exploiter cette mine d’informations, la difficulté réside dans la complexité du processus, directement liées à l’hétérogénéité et la variété des emplacements de stockage de données (serveurs, ordinateurs de bureau, serveurs périphériques, équipements IoT, espaces cloud personnels et professionnels).

Ce paysage génère une fragmentation massive des données (Mass Data Fragmentation), et la manière la plus efficace de la prendre en compte consiste à se doter d’une solution offrant une visibilité sur l’ensemble des données secondaires sans qu’il soit nécessaire de les copier, de les déplacer ou de les modifier. Avec ce type de solution, les données restent en place et il devient possible d’y accéder, quel que soit l’endroit où elles se trouvent.

Accéder de manière efficace à ses données secondaires permet aux entreprises d’ouvrir les yeux sur le potentiel inexploité que recèlent les quantités d’informations stockées. Ce potentiel se transforme en valeur réelle à partir du moment où les éditeurs logiciels commencent à créer des applications exploitant les données pour y découvrir de nouvelles informations, de nouvelles manières de les utiliser.


Auteur
En savoir plus 
Directeur Technique France et EMEA
Cohesity
Christophe Lambert est Directeur Technique France et EMEA chez Cohesity
En savoir plus 

Livres blancs A la Une