Eric Antibi (NetApp) : « Chez nos clients, la donnée est critique et le stockage un mal nécessaire »

NetApp entend maintenir son positionnement d’expert des données, avec son offre de stockage et ses briques logicielles. À l’origine, le fabricant offre des baies de stockage, qui sont montées en puissance et qui offrent plusieurs (jusqu’à 24) contrôleurs appartenant à un même cluster pour gérer la donnée stockée. Il les accompagne du logiciel Data ONTAP, le même présent sur toute la gamme, qui apporte de l’intelligence aux solutions.

NetApp a été l’un des premiers à miser fortement sur le logiciel, qui a permis avant la lettre de disposer d’une solution unifiée, offrant une capacité d’évolution technologique et sans remise en cause des process, de l’administration, du monitoring, etc. Il a été également parmi les premiers à créer des baies multiprotocoles, pour par exemple accéder en mode bloc sur la baie, fournir un service de fichier ou encore de l’archivage légal.

Le logiciel amène aussi des fonctionnalités, par exemple dans le stockage primaire, les bases de données, les environnements virtuels, le backup sur disque, l’archivage, etc. À l’utilisateur d’installer ces fonctionnalités logicielles selon ses besoins.

« Chez nos clients, la donnée est critique et le stockage augmente de 50 % voire plus tous les ans, commente Eric Antibi. Le stockage est une commodité et un mal nécessaire. Mais ce n’est pas seulement livrer des disques et les connecter les uns aux autres, c’est aussi amener de vraies fonctionnalités qui en feront un partenaire pour le métier. C’est pourquoi nous apportons des mécanismes intelligents, comme la déduplication et la compression, pour limiter l’empreinte physique du stockage dans le datacenter. Ou encore l’architecture unifiée et multiprotocoles pour répondre à tous les besoins. »

La stratégie d’alliances

NetApp est reconnu également pour sa politique d’alliances qui lui permet, ainsi qu’à ses partenaires, de compléter son offre. Parmi ses partenaires figurent Cisco, Citrix, VMware, ou encore Microsoft.

« Les alliances permettent de fournir une offre complète, stockage – nous fournissons des baies de stockage avec le logiciel Data ONTAP -, réseau, serveur, hyperviseur, base de données, etc. Ce sont des solutions créées et designées en collaboration avec le partenaire, proposées sous la forme d’offres pré-dimensionnées, intégrées par les partenaires qui la propose. Et l’intelligence de notre logiciel nous permet de mettre à disposition des environnements qui sont englobés dans les outils d’orchestration de nos partenaires. »

À la question de la vision du cloud par NetApp, Eric Antibi nous répond par le focus du constructeur sur l’activité big data : « Nous proposons des solutions packagées avec Hadoop. Notre objectif est de proposer des couches de données les plus denses possibles et de la performance. Il s’agit également pour nous d’adresser les médias avec des solutions packagées de ‘content management’. »

Mais, réaliste, il constate que « Les DSI y sont poussés par les directions métiers qui ne leur laissent pas le choix. Cela se traduit sous forme de POC grandeur nature. Le big data, c’est l’analytique, mais pas que cela, c’est aussi une bande passante très large. Sur analytique, les DSI ont beaucoup de réflexions poussées, mais pas aussi avancées que sur le cloud. Ils s’interrogent, est-ce que pour l’entreprise cela a un intérêt de déployer Hadoop ? »

En page 2 : les annonces de l’été de NetApp

Les annonces de l’été de NetApp

L’été fut l’occasion pour NetApp d’annoncer une évolution majeure des infrastructures de données agiles, avec la gestion de la donnée de façon immuable (“immortal” en version US). Cette architecture est basée sur le clustering ou cluster mode. « Pour conserver la donnée, nous dépassons notre architecture traditionnelle avec deux contrôleurs, et nous sommes aujourd’hui capables de monter des clusters de contrôleurs », affirme Eric Antibi.

NetApp affiche donc sa capacité de monter plusieurs dizaines de contrôleurs, à raison de quatre contrôleurs par cluster. Les avantages ? Principalement la capacité d’évolution, d’ajouter au fur et à mesure des nœuds dans un même cluster. « Sur la base de l’architecture unifiée NetApp, nous avons la capacité de mettre des clusters hybrides, entrée, milieu et haut de gamme. De plus, les contrôleurs de l’ancienne gamme vont cohabiter avec les contrôleurs de nouvelle gamme. Nous offrons la capacité de faire évoluer l’infrastructure sans arrêt, sans migration. C’est une concurrence au scale-out, mais nos concurrents sont monoprotocole. »

NetApp offre ici la possibilité de renouveler l’infrastructure hardware sans toucher à la donnée étant dans le même cluster. Cette fonctionnalité présente également un intérêt pour les hébergeurs, qui disposent de la capacité de créer des serveurs sur un même cluster, mais en assurant l’étanchéité, et de servir plusieurs clients sans avoir à ajouter du hardware.

NetApp dans le flash

Nous nous sommes interrogés sur la stratégie d’intégration de la mémoire flash et des disques SSD dans l’offre de NetApp. « Notre stratégie est de profiter des technologies les plus performantes possible, mais que pour les données qui en ont vraiment besoin, car le flash est plus cher », constate Eric Antibi.

« C’est un problème de tiering. Notre stratégie depuis quatre ans, lorsque l’on a besoin de la donnée et de la performance, c’est de copier la donnée sur les disques les plus rapides, et quand le besoin ne se fait plus ressentir, au bout de quelques mois par exemple, de la remettre sur les disques les plus lents. Cela impose de définir des politiques de gestion de la donnée. Mais également une surcharge de la donnée, copiée en bloc, avec une administration plus poussée et une implication plus forte de l’administrateur du stockage. Cette stratégie répond aux besoins, mais c’est compliqué ! »

« Nous pensons qu’une baie de stockage, avec les I/O (entrées/sorties), sait gérer cela. C’est la gestion du cache. Avec la mémoire traditionnelle, c’est top petit ! C’est pourquoi avec Flash Cache nous annonçons des caches plus gros, sur des cartes additionnelles, avec des contrôleurs jusqu’à 16 To de flash, afin d’accélérer sans intervention des administrateurs. Et avec Flash Pool nous considérons aujourd’hui la même chose, mais avec des disques SSD que la baie gère sous forme de cache, pour placer la donnée chaude sur un groupe de disques SSD. Nous dépassons la philosophie de la simplicité, afin d’enrichir Data ONTAP de fonctionnalités qui exploitent le cache. »

Enfin, NetApp a annoncé Flash Accel, certifié sur certains environnements comme vSphere v5 pour la gestion des machines virtuelles Windows. Il apporte des fonctionnalités depuis le cache serveur et rapproche l’optimisation du cache de l’application au niveau des serveurs. S’arrêter directement au niveau du cache lorsque c’est possible… NetApp a signé un accord avec Fusion-io pour distribuer les cartes flash et les logiciels du fabricant et apporter les fonctionnalités d’accélération spectaculaire de la performance à NetApp Flash Accel.

Autres annonces, V-Series et Windows Server 2012

NetApp a annoncé une appliance virtuelle V-Series, qui permet de récupérer l’intelligence de Data ONTAP pour se connecter à tout type de disque en SAN, en particulier issus des solutions de stockage concurrentes mixées dans un même cluster.

Enfin NetApp a annoncé l’intégration de Microsoft Windows Server 2012 reprenant le leitmotiv de Microsoft qui présente sa solution serveur comme le support des clouds publics, privés et hybrides.