Philippe Nicolas, Scality : « Supporter le stockage sur le Data Center Exascale »

CloudDatacentersStockage
Philippe Nicolas, directeur de la stratégie produit de Scality

Powering the Cloud a été l’occasion d’évoquer avec Philippe Nicolas, de Scality, la problématique du stockage dans un datacenter ExaScale, c’est à dire dont les capacités de stockage dépassent les limites technologiques imposées par les fabricants.

Au delà de sa présence sur Powering the Cloud pour assurer la promotion de sa solution novatrice de stockage objet, Scality a animé une cession de découverte sur le Data Center ExaScale. Philippe Nicolas, le directeur de la stratégie produit de Scality, a répondu à nos questions.

Silicon.fr : Vous intervenez ici pour parler de Data Center ExaScale, qu’entendez-vous par là ?

Philippe Nicolas : On entend ici ou là évoquer les datacenters et leurs contraintes par des acteurs dits traditionnels, mais les solutions traditionnelles sont complètement inadaptées à ces défis. Google stocke tous les jours 24 Po de données nouvelles et il serait complètement vain de considérer un cluster NAS, si bon soit-il, type Isilon ou HP X9000 (d’origine Ibrix), à déployer tous les jours vu leur limite à 20 Po. Sans compter le besoin de doubler ou tripler pour assurer une permanence des données. C’est tout simplement inenvisageable, ces solutions n’ont pas été pensées et développées pour les défis d’Internet, qui a tout changé pour le datacenter.

Quand on parle de Data Center ExaScale il faut avoir en tête l’image d’un terrain de foot, rempli de racks de serveurs que l’on trouve chez les acteurs d’Internet comme Facebook, Google, Yahoo ou Amazon. Toutes ces sociétés ont buté sur les limites des offres commerciales. Quant aux DSI des grandes entreprises, ils rêvent de datacenters de ce type. Aujourd’hui, Scality offre une technologie similaire avec un contrôle total de l’infrastructure.

Comment définiriez-vous un produit capable de supporter un datacenter ExaScale ?

Nous avons identifié quatre critères qui pour nous sont essentiels :

1 – La capacité d’évolution qui se résume bien par le mot ‘scalability‘. Il s’agit de pouvoir supporter des croissances de volumes de données sans rupture de service, sans limite, de façon transparente et toujours fournir un niveau de performance aligné sur les besoins applicatifs ou les métiers de l’entreprise. Chez Scality, le modèle scale-out shared-nothing associé à notre fort parallélisme et notre topologie peer-to-peer sont des éléments primordiaux à la bonne tenue à la charge et la capacité de stockage.

2 – La géo-distribution grâce à la multiplication des points de présence par une diffusion des contenus sur plusieurs clusters répartis sur plusieurs sites. L’effet est immédiat par une disponibilité géographique de l’information transparente pour l’utilisateur et l’application. Pour nous, plusieurs topologies sont disponibles, comme des clusters indépendants sur plusieurs sites, étendus et répartis sur plusieurs sites, ou plusieurs clusters par sites. Il suffit d’activer la diffusion ou la propagation de données et tous les sites possèdent alors l’information.

3 – La protection de données délivrée par deux techniques : la réplication de données et la technologie d’Erasure Coding (EC). La réplication offre la multi-copie de données au sein d’un cluster ou entre clusters que ceux-ci soient limités à un site ou déployés sur plusieurs sites. L’EC permet de limiter la redondance matérielle et le surcoût financier tout en maintenant un très haut niveau de durabilité type 12, 14 ou 16 9s comme l’industrie le définit (12 9 signifie 99,9999999999%). Chez Scality, tous ces modes sont supportés, la réplication jusqu’à 6 copies et l’EC avec Scality ARC qui offrent tous les deux une très bonne persistance de données. Autrement dit, il est fortement improbable de perdre des informations soumises à un cluster Scality.

4 – Les méthodes d’accès représentent aussi un vrai différenciateur pour ces types de déploiement. Des applications sont locales et peuvent nécessiter des accès en mode fichier et d’autres devoir se connecter depuis des sites distants. Il est donc primordial de fournir un portefeuille de méthodes d’accès ouvertes, standards et le plus varié possible. Scality RING offre des accès en mode objet comme notre propre API http/REST, une méthode compatible Amazon S3, CDMI et un mode fichier avec SOFS, NFS, CIFS, AFP, FTP et Hadoop/HDFS. Nous avons même ajouté il y a quelques mois une intégration Cinder pour le couplage de Scality en mode bloc à OpenStack Compute (lire Philippe Nicolas, Scality (stockage objet) : « Le marché nous donne raison »).

Vous évoquez des modes d’accès. Mais pour un éditeur comme vous, une solution peut-elle se décliner en dehors d’un écosystème ?

En effet, l’écosystème est aussi une dimension importante qui facilite et accélère la validation et le choix de plateformes. L’idée ici est de renforcer le rôle de la plateforme et de socle applicatif pour accepter le plus grand nombre possible d’applications et converger vers une consolidation d’usages.

Chez Scality, nous avons démarré un programme de validation de solutions partenaires qui peuvent se coupler au RING au travers de plusieurs méthodes d’accès que nous proposons. Ainsi, l’utilisateur, actuel ou futur, se voit conforter dans son choix du RING et peut envisager facilement différents rôles pour la plateforme de stockage.

Lire également nos précédents articles sur Scality.


Voir aussi

Silicon.fr étend son site dédié à l’emploi IT
Silicon.fr en direct sur les smartphones et tablettes


Lire la biographie de l´auteur  Masquer la biographie de l´auteur