REPORTAGE: Congrès SNWE Storage à Cannes (3)

La virtualisation des ressources de stockage! Ce n’est plus seulement un concept… C’est une orientation importante pour les mois à venir, dans les grandes structures. Mais de quoi parle-t-on, au juste?

L’enjeu, c’est de pouvoir mutualiser toutes les ressources de stockage et d’en optimiser l’utilisation au maximum. En termes de gestion des capacités, l’idée est de voir l’ensemble comme un ou plusieurs volumes logiques -quelle que soit la localisation et le nombre des systèmes de sauvegarde disponibles en réseau.

Stockage : un univers virtuel Cette virtualisation des données s’effectue à plusieurs niveaux au sein de tout réseau de stockage et peut, dans certains cas, intégrer également les disques durs des stations des utilisateurs (comme c’est le cas de la solution proposée par DataCore). Toutefois, le concept fonctionne également très bien sur une baie de stockage comprenant plusieurs batteries de disques. Lorsque l’on travaille dans un environnement comptant de multiples systèmes d’exploitation, un outil tel que HiCommand d’Hitachi Data Systems et destiné aux baies de sa gamme ainsi qu’à celles de Sun (et à certaines baies HP et IBM) permet de partager les disques et d’allouer de l’espace sur la baie sans se préoccuper de la situation réelle des données concernées. De même, chaque volume virtuel peut être atteint par un ou plusieurs système d’exploitation, selon la compatibilité des données avec celui-ci. Bien souvent, cette virtualisation de premier degré permet de configurer les ports de la baie pour qu’ils puissent supporter temporairement une fonction ou un certain nombre d’accès. On dépasse donc la notion de port dédié, ce qui permet de réduire d’autant les investissements. Virtualiser? Si je veux ! « Le gros problème de la virtualisation, c’est qu’il y a toujours un avant et un après« , observe le directeur technique de FalconStore. « On doit migrer d’un modèle classique vers un modèle virtuel. Si, pour quelle que raison que ce soit, on ne veut plus par la suite de cette solution, il est nécessaire de ‘migrer’ ses données. » La seule solution pour éviter cette « valse hésitation » est de passer par un ‘métamodèle’ dont les fonctionnalités seront les mêmes, que l’on soit dans un environnement classique ou virtuel. Cette approche, préconisée par FalconStore, fait agir ce type de solution un peu à la manière d’un ‘proxy’. Ceci permet de fournir près de 90 % des services que l’on attend d’une administration des ressources de stockage. Les 10 % réfractaires concernent principalement l’extension des volumes sur plusieurs baies différentes, ce qui s’explique aisément puisque l’on demeure toujours dépendant de l’outil fourni par le fabricant de la baie. Cette restriction mise à part, l’administrateur aura dans les deux cas accès à tous les autres services (mirroring, réplication, snapshot, gestion de la capacité à la demande, restauration de la messagerie, agents assurant les fonctionnalités transactionnelles au niveau de la base de données, etc.). France virtuelle : un Hexagone très conservateur Si l’univers High Tech et Telco se montre plutôt réceptif à cette approche, les entreprises industrielles s’avèrent nettement plus réticentes, d’autant que la part de leur budget disque comparée à l’ensemble de leurs investissements en ressources de tout genre est négligeable. Acquérir des disques et des baies à chaque fois que leur volume augmente ne les dérange nullement et fait même partie des « coutumes » de ces métiers. De plus, ces environnements étant généralement homogènes, la remise en cause de ceux-ci n’est pas évidente. Toutefois, le taux important d’inutilisation des données sur les disques dans un environnement classique plaide en faveur d’une virtualisation des ressources pour permettre une réelle consolidation des ressources et donc des économies d’échelle que ne peuvent négliger les directions informatiques en cette période de vaches maigres. Stockage : la classe ! Ce bouillonnement autour du stockage, de la virtualisation, aboutit surtout à un remaniement complet de la façon de concevoir celui-ci. S’il est un concept qu’il convient de retenir, c’est bien celui affirmant que toutes les données n’ont pas la même valeur et que leur stockage doit lui aussi prendre en compte ce facteur, notamment au niveau du choix du support et de la méthode d’accès aux données. Lancée notamment par Patrick Martin, le président de StorageTek, la répartition des données en plusieurs classes selon leur fraîcheur, leur niveau d’utilisation, leur valeur intrinsèque (un bon de commande a plus d’intérêt qu’une note de service) conduit à repenser la manière de stocker ses données et surtout de les administrer. D’où l’intérêt de sauvegarder celles-ci selon un modèle de vases communiquants, de « cascades » utilisant des médias de moins en moins coûteux au fur et à mesure de la « paupérisation » de la donnée. Ainsi, les données les plus fraîches et celles sur lesquelles les interventions sont les plus fréquentes seront stockées sur des disques rapides, puis elles transiteront vers des bandothèques, pour enfin être déportés vers des supports de type magnéto-optique. Comme le fait remarquer Pascal Landa, responsable de l’infrastructure données d’Ernst & Young : « Tout tient en fait au confort de l’utilisateur pour extraire ces données sauvegardées, ou plus exactement au dÉlai maximum qu’il voudra bien supporter pour accéder à une donnée relativement ancienne. Ainsi, nos consultants ont avoué très bien supporter un délai d’attente d’une vingtaine de secondes lorsque la donnée recherchée a une certaine maturité. L’immense intérêt d’une solution en cascade c’est que le coût du Teraoctet devient dérisoire. » Où sont les vrais coûts? Encore faut-il, dans un tel contexte, automatiser au maximum l’administration des données cascadées et ne pas rajouter une couche supplémentaire à la batterie d’outils, déjà longue, dont se servent les responsables d’exploitation en matière de gestion des données de l’entreprise. EMC2 l’a d’ailleurs parfaitement compris et met désormais en avant une gamme d’outils directement inspirés des règles d’administration définies au plus haut niveau par la DSI. But du jeu: unifier au sein d’un même « métamodèle » intelligent le maximum d’outils, en fournissant une interface commune, non seulement sur le plan de l’infrastructure (ce que promet l’initiative SMI de la SNIA), mais aussi et surtout sur le plan de l’ergonomie. Car si le volume des données explose, les budgets consacrés au stockage implosent. Or, ce qui coûte le plus cher n’est plus le giga-octet de données stockées, mais le prix à payer pour administrer celles-ci. Lorsque l’on sait que le personnel qualifié dans le secteur du stockage est une denrée aussi rare que le caviar, on a alors tout intérêt à rechercher des solutions dont l’apprentissage soit le plus simple et le plus ergonomique possible. Pour conclure, cette phrase de la Marquise de Sévigné ferait bien la devise de cette industrie: « Le sublime, c’est de savoir s’élever jusqu’à la simplicité ! » IBM s’y met aussi…

Big Blue vient tout juste d’annoncer ses deux premiers outils de virtualisation du stockage. Objectif : permettre à ses clients de sortir enfin du bourbier issu de la complexité croissante des solutions de stockage, augmenter la productivité des administrateurs de SAN tout en fournissant haute disponibilité et une sérieuse extensibilité. Comme le souligne Jens Tiedemann, vice-président marketing de la division logiciel de stockage de l’IBM Storage Systems Group :  »

Cette suite logicielle permet l’utilisation de volumes logiques de stockage depuis des plates-formes qui, dès le second semestre, ne seront pas forcément toutes bleues. Elle encadre les ressources de stockage et de commutation et fonctionne sur un serveur Linux. » Module de base, le SAN Volume Controller, est un logiciel de virtualisation destiné à certains hardwares « customisés » (plus particulièrement, les serveurs IBM eServer xSeries fonctionnant sous noyau Linux 2.4). Le paramétrage du débit et de la capacité se fait à la volée, sans devoir interrompre les applications. Ceci autorise un débit de quelque 280.000 E/S par seconde ou de 1.780 Mo/sec pour un pool de stockage pouvant atteindre les 2 peta-octets. Le « SAN Integration Server » démultiplie les fonctions de virtualisation du « SAN Volume Controller » en exploitant notamment les principaux switchs Fibre Channel et l’environnement FaStT d’IBM.