Eric Antibi (NetApp) : « Chez nos clients, la donnée est critique et le stockage un mal nécessaire »

CloudStockage

NetApp fête ses 20 ans en 2012. L’occasion de faire le point avec Eric Antibi, directeur technique de NetApp France, sur cet acteur incontournable du stockage des données, sa vision du cloud, du big data et des technologies flash, et sur ses dernières annonces.

Les annonces de l’été de NetApp

L’été fut l’occasion pour NetApp d’annoncer une évolution majeure des infrastructures de données agiles, avec la gestion de la donnée de façon immuable (“immortal” en version US). Cette architecture est basée sur le clustering ou cluster mode. « Pour conserver la donnée, nous dépassons notre architecture traditionnelle avec deux contrôleurs, et nous sommes aujourd’hui capables de monter des clusters de contrôleurs », affirme Eric Antibi.

NetApp affiche donc sa capacité de monter plusieurs dizaines de contrôleurs, à raison de quatre contrôleurs par cluster. Les avantages ? Principalement la capacité d’évolution, d’ajouter au fur et à mesure des nœuds dans un même cluster. « Sur la base de l’architecture unifiée NetApp, nous avons la capacité de mettre des clusters hybrides, entrée, milieu et haut de gamme. De plus, les contrôleurs de l’ancienne gamme vont cohabiter avec les contrôleurs de nouvelle gamme. Nous offrons la capacité de faire évoluer l’infrastructure sans arrêt, sans migration. C’est une concurrence au scale-out, mais nos concurrents sont monoprotocole. »

NetApp offre ici la possibilité de renouveler l’infrastructure hardware sans toucher à la donnée étant dans le même cluster. Cette fonctionnalité présente également un intérêt pour les hébergeurs, qui disposent de la capacité de créer des serveurs sur un même cluster, mais en assurant l’étanchéité, et de servir plusieurs clients sans avoir à ajouter du hardware.

NetApp dans le flash

Nous nous sommes interrogés sur la stratégie d’intégration de la mémoire flash et des disques SSD dans l’offre de NetApp. « Notre stratégie est de profiter des technologies les plus performantes possible, mais que pour les données qui en ont vraiment besoin, car le flash est plus cher », constate Eric Antibi.

« C’est un problème de tiering. Notre stratégie depuis quatre ans, lorsque l’on a besoin de la donnée et de la performance, c’est de copier la donnée sur les disques les plus rapides, et quand le besoin ne se fait plus ressentir, au bout de quelques mois par exemple, de la remettre sur les disques les plus lents. Cela impose de définir des politiques de gestion de la donnée. Mais également une surcharge de la donnée, copiée en bloc, avec une administration plus poussée et une implication plus forte de l’administrateur du stockage. Cette stratégie répond aux besoins, mais c’est compliqué ! »

« Nous pensons qu’une baie de stockage, avec les I/O (entrées/sorties), sait gérer cela. C’est la gestion du cache. Avec la mémoire traditionnelle, c’est top petit ! C’est pourquoi avec Flash Cache nous annonçons des caches plus gros, sur des cartes additionnelles, avec des contrôleurs jusqu’à 16 To de flash, afin d’accélérer sans intervention des administrateurs. Et avec Flash Pool nous considérons aujourd’hui la même chose, mais avec des disques SSD que la baie gère sous forme de cache, pour placer la donnée chaude sur un groupe de disques SSD. Nous dépassons la philosophie de la simplicité, afin d’enrichir Data ONTAP de fonctionnalités qui exploitent le cache. »

Enfin, NetApp a annoncé Flash Accel, certifié sur certains environnements comme vSphere v5 pour la gestion des machines virtuelles Windows. Il apporte des fonctionnalités depuis le cache serveur et rapproche l’optimisation du cache de l’application au niveau des serveurs. S’arrêter directement au niveau du cache lorsque c’est possible… NetApp a signé un accord avec Fusion-io pour distribuer les cartes flash et les logiciels du fabricant et apporter les fonctionnalités d’accélération spectaculaire de la performance à NetApp Flash Accel.

Autres annonces, V-Series et Windows Server 2012

NetApp a annoncé une appliance virtuelle V-Series, qui permet de récupérer l’intelligence de Data ONTAP pour se connecter à tout type de disque en SAN, en particulier issus des solutions de stockage concurrentes mixées dans un même cluster.

Enfin NetApp a annoncé l’intégration de Microsoft Windows Server 2012 reprenant le leitmotiv de Microsoft qui présente sa solution serveur comme le support des clouds publics, privés et hybrides.

Lire aussi :