Virtualisation du stockage : une approche très? virtuelle !

Sujet ô combien à la mode ces dernières années, la virtualisation appliquée au stockage des données semble souffrir d’un certain nombre d’inconvénients. Mais restreignent-ils son champ d’action?

L’idée en soi est séduisante. Pouvoir enfin allouer de l’espace à tout un chacun sans accumuler une pléthore de disques (généralement utilisés à la moitié de leur capacité), créer des disques virtuels exploitables par des groupes d’utilisateurs -quel que soit le système d’exploitation de leurs machines et serveurs, augmenter sa volumétrie de quelques tera-octets d’un seul ‘clic souris’, déplacer ces capacités sans devoir arrêter le système, le tout via une interface dont l’ergonomie permet de se passer d’un administrateur super compétent… Le rêve? Le principe consiste à distribuer et à utiliser tout l’espace disque disponible sous forme d’un ‘pool’ de stockage centralisé et partagé sur un réseau de serveurs hétérogènes (cette centralisation facilitant d’autant la gestion du partage des ressources)

Sous les octets? la plage Au delà de ce dépliant touristique, la virtualisation promettait toutefois un certain nombre d’avantages aux responsables du stockage de données toujours en mal d’espace et de temps de développement. Tout d’abord une réelle réduction du coût de revient global de l’infrastructure. Et puis une centralisation des ressources et leur simplicité d’allocation permettent non seulement de réduire la taille des équipes informatiques mais aussi leur niveau de compétence. Ensuite la simplification des configurations elles-mêmes puisque, grâce à la virtualisation, il est plus simple de configurer sa solution de stockage pour un environnement spécifique. On peut ainsi utiliser différents niveaux de disques ‘RAID’ et changer ces derniers dans la foulée, cela sur l’ensemble du ‘pool’ de stockage, une manoeuvre impensable auparavant (ou tout du moins très délicate). Et puis, la virtualisation permettait enfin de répondre au rêve de tout informaticien bien né: pouvoir centraliser ses ressources disque et bande dans un environnement serveur qui (pour des raisons historiques) est rarement homogène. L’intérêt de cette approche était de pouvoir permettre à des serveurs ayant des systèmes d’exploitation divers de se raccorder et de partager de façon cohérente un même ‘pool de stockage’. De ce fait, il était enfin possible de mixer un sous-système de taille importante (un ‘midframe’, par exemple) et tout un ensemble de petits sous-systèmes ayant chacun des tailles différentes. La virtualisation, c’était aussi la promesse de simplifier l’affectation des capacités de stockage puisqu’il devait suffire de puiser, dans des volumes virtuels, la capacité à allouer aux serveurs exactement là où cette volumétrie était demandée. La capacité empruntée était alors retournée au ‘pool de stockage’ une fois la tâche effectuée, la volumétrie excédentaire étant prête à resservir pour toute nouvelle demande d’un serveur ou d’une application. Qui plus est, rien n’est plus simple que de copier, ‘mirrorer’, migrer ou échanger des données entre les sous-systèmes de stockage et cela sur l’ensemble du réseau. Enfin, la virtualisation permettait de réaliser des configurations offrant une forte disponibilité et une bande passante constante. Bref, le paradis retrouvé pour des exploitants qui n’en peuvent mais. Hélas, la virtualisation ainsi prônée n’a connu qu’un succès très mitigé. Sous la virtualisation? la panne Si le concept permet notamment d’utiliser des disques bas de gamme, c’est surtout pour son ergonomie et pour la garantie de bande passante qu’il a été adopté par certains grands comptes. Qui ont finalement pour partie déchanté. Car la virtualisation a un grave défaut, une fois opérationnelle, elle absorbe, comme l’homéostat qu’elle est, les pannes bénignes que connaît tout système de stockage, voire certaines pannes plus graves, puisque grâce à ses automatismes la répartition de charge entre les disques se compense automatiquement. Seulement voilà, comme il n’est plus besoin de disposer d’un personnel expert, la connaissance intime du fonctionnement du système de stockage se perd progressivement. De plus, la virtualisation masque les origines des pannes, tant et si bien que lorsque surgit une panne vraiment grave qui perturbe l’ensemble du réseau de stockage, il n’est pas toujours possible d’en trouver l’origine. D’où une perte de temps assez conséquente. Il a donc fallu revoir la copie et penser la virtualisation autrement. Virtualiser, oui mais pas n’importe quoi… On s’est tout d’abord aperçu qu’il n’était pas possible de tout virtualiser de manière centralisée du fait des risques précédemment annoncés. D’où l’idée de déporter le processus de virtualisation vers le réseau lui-même. C’est ainsi que sont nées des générations de routeurs et de ‘directeurs’ embarquant l’intelligence des softs de virtualisation, suite à des accords avec les principaux éditeurs de logiciels de virtualisation. Cette nouvelle approche apporte de nombreux avantages, puisqu’elle permet notamment d’avoir une meilleure visibilité de l’ensemble des serveurs et des espaces de stockage au sein du ‘data center’. On a donc ainsi la possibilité d’effectuer la virtualisation depuis le coeur même de l’infrastructure plutôt que depuis ses composants de type sous-systèmes ou serveurs. Enfin, last but not least, les principaux constructeurs (Brocade, McData, Cisco) intègrent désormais de tels services sophistiqués dans leurs matériels réseau, lesquels gèrent des processus de sauvegarde, de ‘mirroring’, de réplication et de gestion entre les systèmes, les serveurs et les matériels de stockage de la plupart des fabricants. Bref, tel le serpent de mer, la virtualisation refait surface. Reste à savoir si cette fois-ci elle fera flores.