Virtualisation du stockage : mythe ou réalité?

Est-elle si loin l’époque des minis et des gros systèmes, lorsque l’administration des données était centralisée sur des matériels homogènes et confiée à des ingénieurs-systèmes? Oui, et non…

Les capacités disponibles de l’ordre de centaines de giga-octets pour des grandes organisations nécessitaient une gestion quasi militaire afin d’assurer leur accès et leur sauvegarde via un annuaire géré en interne. Toutes les applications étaient développées sur place par des armées de chefs de projet et d’analystes-programmeurs dépêchées par des SSII qui avaient bien du mal à répondre à la demande… Aujourd’hui, 1000 Go coûtent moins de 1.000 euros mais sont divisés en 4 disques de 250Go. Pour les voir sur un seul volume, un logiciel ou une carte RAID (Redundant Array of independent disks) installé sur le serveur est indispensable. Ensuite, il faut permettre aux utilisateurs d’accéder aux données présentes sur ces disques via le réseau et les sauvegarder tous les jours de manière efficace. Il est évident que l’espace de 1 To devra tôt ou tard être agrandi et on va arriver assez vite aux limites du système D. C’est ainsi que ce ou ces serveurs (ils se sont multipliés au cours du temps) vont être remplacé(s) par des solutions de stockage réseau : serveurs NAS (Network Attached Storage) et/ou SAN (Storage Array Networks). L’administrateur réseau comprendra vite qu’il serait intéressant de regrouper les ressources physiques NAS et SAN hétérogènes (ou non) au sein d’un seul volume logique homogène dans lequel les différentes applications de l’entreprise utiliseraient un stockage évolutif et adapté: c’est le concept de la virtualisation du stockage. Dans la réalité, au cours des 5 dernières années, les organisations ont souvent acquis des systèmes NAS et SAN hétérogènes (Serveurs NAS, Controleurs RAID Fibre Channel, Baies JBOD (Just a Bunch Of Disks), commutateurs, Gbics, GLM, Cartes controleurs HBA,…) alors que les standards ont déjà bougé (Fibre Channel: les ports 1Gbit sont passés à 2Gbits, nouveaux logiciels SAN ,…). De fait, en dehors d’une acquisition chez un fournisseur global, les logiciels de virtualisation peuvent être difficiles à installer et à configurer mais en cas de réussite du projet, les économies d’échelle rembourseront aisément l’investissement : possibilité de mettre en place des stratégies adaptées de réplication, miroir distant, snapshots, sauvegarde sur disques durs secondaires, caches, HSM (extension virtuelle de l’espace disque dur sur des bibliothèques de bandes), reprise sur sinistre,… La virtualisation de l’espace de stockage est en effet indispensable pour stocker, faire vivre et conserver efficacement les données stratégiques des systèmes d’information , et donc de permettre aux organisations d’exercer leur métier et de rester compétitives au niveau mondial. On distingue aujourd’hui 3 types de fournisseurs pour ce type de solution innovante : Les éditeurs :Veritas, Falconstor, Neartek, Datacore,… Les constructeurs-éditeurs: EMC, HP, IBM, HDS, LSI, Sun, Network Appliance, Storagetek, Adic, MTI, LSI, SGI… Les émergents: Xiotech, Blue Arc, Datadirect Networks, Truesan, Sistina, Intellique,… Les tarifs (à partir de 15.000 euros HT) varient en fonction des matériels déjà en place et de la configuration du ou des logiciels) . (

Thierry Bloch, Intellique, est consultant et chargé de cours)