Pour gérer vos consentements :
Categories: Réseaux

Virtualisation du stockage : une approche très? virtuelle !

L’idée en soi est séduisante. Pouvoir enfin allouer de l’espace à tout un chacun sans accumuler une pléthore de disques (généralement utilisés à la moitié de leur capacité), créer des disques virtuels exploitables par des groupes d’utilisateurs -quel que soit le système d’exploitation de leurs machines et serveurs, augmenter sa volumétrie de quelques tera-octets d’un seul ‘clic souris’, déplacer ces capacités sans devoir arrêter le système, le tout via une interface dont l’ergonomie permet de se passer d’un administrateur super compétent… Le rêve? Le principe consiste à distribuer et à utiliser tout l’espace disque disponible sous forme d’un ‘pool’ de stockage centralisé et partagé sur un réseau de serveurs hétérogènes (cette centralisation facilitant d’autant la gestion du partage des ressources)

Sous les octets? la plage Au delà de ce dépliant touristique, la virtualisation promettait toutefois un certain nombre d’avantages aux responsables du stockage de données toujours en mal d’espace et de temps de développement. Tout d’abord une réelle réduction du coût de revient global de l’infrastructure. Et puis une centralisation des ressources et leur simplicité d’allocation permettent non seulement de réduire la taille des équipes informatiques mais aussi leur niveau de compétence. Ensuite la simplification des configurations elles-mêmes puisque, grâce à la virtualisation, il est plus simple de configurer sa solution de stockage pour un environnement spécifique. On peut ainsi utiliser différents niveaux de disques ‘RAID’ et changer ces derniers dans la foulée, cela sur l’ensemble du ‘pool’ de stockage, une manoeuvre impensable auparavant (ou tout du moins très délicate). Et puis, la virtualisation permettait enfin de répondre au rêve de tout informaticien bien né: pouvoir centraliser ses ressources disque et bande dans un environnement serveur qui (pour des raisons historiques) est rarement homogène. L’intérêt de cette approche était de pouvoir permettre à des serveurs ayant des systèmes d’exploitation divers de se raccorder et de partager de façon cohérente un même ‘pool de stockage’. De ce fait, il était enfin possible de mixer un sous-système de taille importante (un ‘midframe’, par exemple) et tout un ensemble de petits sous-systèmes ayant chacun des tailles différentes. La virtualisation, c’était aussi la promesse de simplifier l’affectation des capacités de stockage puisqu’il devait suffire de puiser, dans des volumes virtuels, la capacité à allouer aux serveurs exactement là où cette volumétrie était demandée. La capacité empruntée était alors retournée au ‘pool de stockage’ une fois la tâche effectuée, la volumétrie excédentaire étant prête à resservir pour toute nouvelle demande d’un serveur ou d’une application. Qui plus est, rien n’est plus simple que de copier, ‘mirrorer’, migrer ou échanger des données entre les sous-systèmes de stockage et cela sur l’ensemble du réseau. Enfin, la virtualisation permettait de réaliser des configurations offrant une forte disponibilité et une bande passante constante. Bref, le paradis retrouvé pour des exploitants qui n’en peuvent mais. Hélas, la virtualisation ainsi prônée n’a connu qu’un succès très mitigé. Sous la virtualisation? la panne Si le concept permet notamment d’utiliser des disques bas de gamme, c’est surtout pour son ergonomie et pour la garantie de bande passante qu’il a été adopté par certains grands comptes. Qui ont finalement pour partie déchanté. Car la virtualisation a un grave défaut, une fois opérationnelle, elle absorbe, comme l’homéostat qu’elle est, les pannes bénignes que connaît tout système de stockage, voire certaines pannes plus graves, puisque grâce à ses automatismes la répartition de charge entre les disques se compense automatiquement. Seulement voilà, comme il n’est plus besoin de disposer d’un personnel expert, la connaissance intime du fonctionnement du système de stockage se perd progressivement. De plus, la virtualisation masque les origines des pannes, tant et si bien que lorsque surgit une panne vraiment grave qui perturbe l’ensemble du réseau de stockage, il n’est pas toujours possible d’en trouver l’origine. D’où une perte de temps assez conséquente. Il a donc fallu revoir la copie et penser la virtualisation autrement. Virtualiser, oui mais pas n’importe quoi… On s’est tout d’abord aperçu qu’il n’était pas possible de tout virtualiser de manière centralisée du fait des risques précédemment annoncés. D’où l’idée de déporter le processus de virtualisation vers le réseau lui-même. C’est ainsi que sont nées des générations de routeurs et de ‘directeurs’ embarquant l’intelligence des softs de virtualisation, suite à des accords avec les principaux éditeurs de logiciels de virtualisation. Cette nouvelle approche apporte de nombreux avantages, puisqu’elle permet notamment d’avoir une meilleure visibilité de l’ensemble des serveurs et des espaces de stockage au sein du ‘data center’. On a donc ainsi la possibilité d’effectuer la virtualisation depuis le coeur même de l’infrastructure plutôt que depuis ses composants de type sous-systèmes ou serveurs. Enfin, last but not least, les principaux constructeurs (Brocade, McData, Cisco) intègrent désormais de tels services sophistiqués dans leurs matériels réseau, lesquels gèrent des processus de sauvegarde, de ‘mirroring’, de réplication et de gestion entre les systèmes, les serveurs et les matériels de stockage de la plupart des fabricants. Bref, tel le serpent de mer, la virtualisation refait surface. Reste à savoir si cette fois-ci elle fera flores.

Recent Posts

AWS abandonne WorkDocs, son concurrent de Dropbox

Un temps pressenti pour constituer le socle d'une suite bureautique AWS, Amazon WorkDocs arrivera en…

7 heures ago

Eviden structure une marque de « serveurs IA »

Eviden regroupe cinq familles de serveurs sous la marque BullSequana AI. Et affiche le supercalculateur…

10 heures ago

SSE : l’expérience se simplifie plus que les prix

Le dernier Magic Quadrant du SSE (Secure Service Edge) dénote des tarifications et des modèles…

12 heures ago

IA générative : les lignes directrices de l’ANSSI

Formats de paramètres, méthodes d'apprentissage, mutualisation GPU... Voici quelques-unes des recommandations de l'ANSSI sur l'IA…

1 jour ago

De la marque blanche à l’« exemption souveraine », Broadcom fait des concessions aux fournisseurs cloud

À la grogne des partenaires VMware, Broadcom répond par diverses concessions.

1 jour ago

iPadOS finalement soumis au DMA

iPadOS a une position suffisamment influente pour être soumis au DMA, estime la Commission européenne.

1 jour ago