Congrès stockage: vie et trépas pour les données

Orlando (Etats-Unis)-29 oct. : au menu, ce jour, le principe de cycle de vie appliquée à nos chères ‘data’

Le concept de gestion du cycle de vie de l’information ou

ILM, Information Lifecycle Management, s’est taillée la part du lion durant cette journée. On commence d’ailleurs tout juste à prendre aujourd’hui conscience du fait que les informations possèdent, elles aussi, un cycle de vie au cours duquel leur valeur varie selon leur utilité et leur utilisation. Or, si l’on sait parfaitement quand et comment naissent les informations, il n’est pas aussi simple de déterminer le moment de leur mort, d’autant plus que l’évolution de leur valeur entre ces deux extrémités varie considérablement selon les circonstances. Si l’idée n’est guère nouvelle, sa concrétisation en revanche l’est, puisque, grâce notamment aux techniques de virtualisation, il est enfin possible de briser l’équation fatidique 1 application = 1 serveur = 1 système de stockage dédié. L’automatisation du stockage en réseau apporté par les SAN sert en effet de base à l’élaboration d’une véritable stratégie de gestion du cycle de vie des données. Serial-ATA : tueur en série L’arrivée des disques Serial ATA va bientôt avoir un impact majeur sur la protection des données et leur administration, affirme Nick Allen, vice-président et directeur de recherche du groupe stockage et systèmes d’entreprise du Gartner Group. Selon lui, ce n’est pas sans raison si, après avoir été employés sur les serveurs d’entrée de gamme, ces mêmes disques sont désormais utilisés sur les serveurs haut de gamme. Toutefois, s’ils sont peu coûteux (et donc facilement remplaçables), ils ne se prêtent pas à tous les usages. Pas question en effet de les utiliser pour des applications de production, leur débit étant trop lent. Néanmoins, toujours d’après le Gartner, d’ici 2006, près de 30 % de la capacité disque exploitée sur les systèmes partagés le sera en serial ATA. Mais il ne s’agira aucunement de stockage primaire, la lenteur des disques leur réservant en fait un rôle lors du stockage secondaire sur disque, donc un cran avant le recours à la bande. Remarquons ainsi qu’en ce qui concerne les flux de données séquentiels, notamment en matière de backup-restauration, ces disques offrent des performances équivalant à 70/80 % de celles qu’on est en droit d’attendre d’un disque SCSI. Si l’on prend également en compte les systèmes de bufferisation et les autres fonctionnalités offertes autour du SCSI, ce pourcentage chute à 60/70 % ce qui demeure raisonnable pour effectuer une sauvegarde ou une restauration, et peut-être un peu d’extraction, mais n’est aucunement valable lorsqu’il s’agit d’exploiter des bases de données. Comme nous le faisait remarquer Nick Allen :  » Par ailleurs, les disques S-ATA sont tout à fait adaptés à la mise en place d’une stratégie ILM. Seul problème à résoudre, on risque de se retrouver avec deux file systems. Fort heureusement, on commence à voir apparaître des solutions qui masquent ce degré de complexité à l’utilisateur et ne lui présentent qu’un seul et même système de fichiers. Enfin, signalons que ces disques sont parfaitement adaptés pour déployer des techniques de virtualisation à bon compte « . Et la boucle de se boucler… Legato, désormais fusionné avec EMC, a d’ailleurs énormément travaillé sur ce concept. Son objectif ultime est de permettre aux entreprises d’optimiser leurs coûts et d’améliorer leur gestion tout en rentabilisant leurs investissements. Selon cet éditeur, toute solution d’ILM qui se respecte doit regrouper les composants suivants (ce en fonction de l’application considérée et des données y associées) : – un stockage local rapide fourni grâce à un logiciel de sauvegarde/restauration hautes performances, lequel permettra notamment de réaliser périodiquement des instantanés des données afin de réduire le risque de perte de celles-ci. Ce système de snapshots a de plus l’avantage d’autoriser une sauvegarde applicative sans qu’il soit nécessaire d’interrompre les transactions, la restauration pouvant d’ailleurs s’effectue à partir du disque, si nécessaire ; – un logiciel permettant l’archivage, la recherche et la surveillance du courrier électronique (par exemple EmailXtender chez Legato)et de la messagerie instantanée. Ceci sert notamment dans une perspective légale d’archivage des mails, surtout à des fins réglementaires ou juridiques(cf. nos précédents articles sur la preuve numérique) ; – par ailleurs, pour ce qui est des contrats, il est nécessaire de pouvoir disposer pendant toute la durée de leur conservation des matériels et logiciels nécessaires à leur relecture. Une fois amendées, ces pièces ne bougent plus guère (si ce n’est sous forme d’avenants annexés au contrat initial) si bien qu’il est plus simple de les enregistrer sur un support économique (disque optique numérique, par exemple) à condition que ses données soient facilement extractibles lorsqu’on en a besoin. D’où l’idée d’un stockage-archivage en cascade disque-disque-bande-disque optique tel qu’on le découvre chez un nombre grandissant de fournisseurs ; – enfin, il existe des données stratégiques, véritable patrimoine vivant de l’entreprise, qui nécessitent une disponibilité de tous les instants et qui ne sauraient souffrir la moindre indisponibilité ou disparition. Celles-ci doivent alors être placées en copie sur un site miroir afin que l’entreprise puisse redémarrer avec ces données essentielles en cas de sinistre. Les trois concepts clé à retenir à propos de l’ILM sont donc : disponibilité des données, accessibilité aisée à celles-ci, et enfin protection des plus importantes. Les progiciels permettant une prise en compte globale de cette approche sont encore rares (sauf chez les très grands éditeurs), mais certains s’y frottent déjà, y compris en proposant des solutions mixant matériel et logiciel. C’est le cas notamment de Permabit, qui bâtissant de l’élan autour du concept d’ILM, en profite pour démontrer son approche à base d’appliance dédiée à la gestion du contenu associé au stockage. Panasas, le pied ! Quelques présences remarquées avec (enfin !) l’annonce et la disponibilité, du serveur de stockage Panasas. Fondé par son CTO, Garth Gibson (par ailleurs l’un des inventeurs du RAID), développe une solution de serveur de stockage évolutive et performante autour de Linux basée sur ActiveScale FileSystem, nom de la technologie et du savoir-faire Panasas. Cette solution propose une approche distribuée innovante qui illustre bien la contribution de la SNIA à l’industrie. ActiveScale FileSystem est en effet ce qu’on appelle un système de fichiers SAN reposant sur une approche objet originale(OSD, Object Storage Devices). Ne brocardez pas Brocade ! Confirmant l’engouement pour l’intelligence embarquée, la seconde innovation est à mettre au profit d’Incipient avec son système de virtualisation de stockage installé au sein de commutateurs. Sa démonstration utilise la plate-forme applicative Brocade Fabric AP. Parmi les nouvelles fonctions proposées par les services de routage fabric multiprotocole désormais disponibles sur ce switch Fabric nouvelle génération , on notera : ? Le routage FC-to-FC (Fibre Channel vers Fibre Channel) afin de consolider et d’étendre des îlots SAN distincts en les intégrant sous forme de LSAN privés (SAN logiques), ceux-ci offrant le plus haut degré de souplesse en matière de configuration et de disponibilité système, le tout assorti de niveaux de risque et de complexité infimes pour l’utilisateur. ? La disponibilité d’une passerelle iSCSI-to-FC (iSCSI vers Fibre Channel) pour pouvoir connecter des serveurs Ethernet bon marché à un fabric Fibre Channel via le protocole iSCSI. ? La translation Fibre Channel vers FC-IP, afin d’étendre la portée des SAN Fibre Channel via des réseaux IP. Quelques promesses associées à l’ILM

? Adéquation des services et des investissements stockage par rapport à la valeur réelle des informations de l’entreprise ? Protection maximale des informations, pour un coût nettement plus abordable ? Disparition des volumétries de stockage surdimensionnées ? Diversification des supports de stockage et optimisation de leur emploi ? Création de règles et procédures adaptées à la taille et au métier de l’entreprise ? Automatisation des migrations de données, ceci réduisant la part des erreurs dues au facteur humain ? Garantie de disponibilité des informations tant qu’elles demeurent utiles ? Réutilisation et recyclage des systèmes vieillissants pour les besoins peu critiques.