Pour gérer vos consentements :
Categories: Réseaux

DOSSIER: Consolider, sécuriser les infrastructures virtualisées – serveurs et stockage

Ce document de synthèse est construit sur quatre volets:

1- Un partenariat original autour d’une architecture

2- Les atouts de la solution Cisco, NetApp, VMware

3- L’architecture FlexPod en 3 couches

4- La qualité de service de bout en bout : comment ?

4 – La qualité de service de bout en bout : comment ?

par Chris Naddeo, ingénieur Marketing et Technique pour UCS , Cisco.  (résumé)

Très peu de projets s’attaquent à la question de la qualité de service de bout en bout. En général, un mécanisme de qualité de service est activé au niveau d’une couche, dans l’espoir que les couches supérieures et inférieures en bénéficieront aussi.

Oui, mais toutes les applications sont dotées de caractéristiques différentes : certaines exigent une capacité de calcul importante tandis que d’autres pèsent lourdement sur le réseau ou sur les volumes d’E/S (entrées/sorties ou I/O). Se contenter de limiter les E/S n’a que peu, voire aucun impact sur le contrôle de l’utilisation du CPU par une application exigeant une capacité importante du processeur.

Cisco, NetApp et VMware ont conçu un mécanisme approprié pour chaque couche, à partir de leurs propres développements.

Quand des ressources ne sont pas utilisées, les applications importantes doivent pouvoir les utiliser si nécessaire. Cela peut permettre à une application de faire face à des circonstances imprévues. En revanche, en cas de conflit, tous les colocataires doivent avoir la garantie de pouvoir bénéficier du niveau de service auquel ils ont souscrit.

Un autre principe de conception a consisté à définir la classe de service au plus près de l’application, à ‘mapper’ cette valeur dans une définition de règle et à s’assurer que la règle en question était appliquée uniformément sur toutes les couches, conformément aux qualités propres à chaque couche. Pour assurer cette qualité de service, trois mécanismes ont été utilisés pour chaque couche :

__________

Trois mécanismes de qualité de service

Qualité de bout en bout

1 – Couche calcul /serveur

Pour  la virtualisation des serveurs, VMware vSphere offre de nombreuses fonctions visant à assurer une bonne utilisation des ressources, notamment du processeur et de la mémoire. Le pool de ressources vSphere est une abstraction logique permettant une gestion flexible des ressources. Les pools de ressources peuvent être groupés en hiérarchies et utilisés pour partitionner de manière hiérarchique les ressources disponibles du processeur et de la mémoire. En configurant correctement les attributs du pool de ressources concernant les réserves, les limites, les partages et les réserves extensibles, on peut effectuer un contrôle très fin et accorder la priorité à un colocataire sur un autre serveur en cas de conflit au niveau des ressources.

VMware Distributed Resource Scheduler (DRS) permet de créer des clusters contenant plusieurs serveurs VMware. Ce DRS contrôle en permanence l’utilisation des pools de ressources et alloue de manière intelligente les ressources disponibles aux machines virtuelles. DRS est entièrement automatisé au niveau du cluster, de sorte que les charges de l’infrastructure et de la machine virtuelle du colocataire font l’objet d’un équilibrage de charge entre tous les serveurs ESX d’un cluster.

En ce qui concerne le matériel, Cisco UCS utilise Data Center Bridging (DCB) pour gérer tout le trafic au sein du système Cisco UCS. Cette amélioration du standard Ethernet divise la bande passante du canal Ethernet en 8 voies virtuelles. Les classes du système déterminent comment la bande passante DCB est allouée au sein de ces voies virtuelles, à destination du système Cisco UCS complet. Chaque classe réserve un segment spécifique de la bande passante pour un certain type de trafic. Cela a pour effet de créer un certain degré de gestion du trafic, même dans un système fortement chargé.

Sécurisation FlexPod: Cisco, VMware, NetApp

2 – Couche ‘réseau’

Au niveau du réseau, le trafic est segmenté en fonction de la classe de service attribuée au préalable par le Nexus 1000v et observée ou réglementée par le système UCS de Cisco.

Il existe deux méthodes distinctes pour offrir une protection continue des performances :

1•    La file d’attente permet aux périphériques réseau de planifier la livraison de paquets sur la base des critères de classification. En cas de surexploitation des ressources, la possibilité de déterminer quels paquets doivent être livrés en premier génère, au bout du compte, une différence de temps de réponse pour les applications importantes.

2•    Le contrôle de la bande passante autorise aux périphériques réseau un nombre adéquat de tampons par file d’attente, de façon à éviter que certaines classes de trafic n’utilisent à outrance la bande passante. Cela donne aux autres files d’attentes une bonne chance de répondre aux besoins des classes restantes. Le contrôle de la bande passante va de pair avec la file d’attente. En effet, la file d’attente détermine quels paquets seront livrés en premier, tandis que la bande passante détermine la quantité de données qui peut être envoyée pour chaque file.

Le switch Nexus 1000V de Cisco est utilisé pour la fonction d’application de règles et de limitation du débit pour trois types de trafic :

1•    VMotion. VMware recommande une interface Gigabit dédiée pour le trafic  VMotion. Dans cette infrastructure, le trafic VMotion est dédié à l’aide d’un port VMkernel non routable. Afin de correspondre aux environnements traditionnels, le trafic VMotion est fixé à 1 Gbit/s. Cette limite peut être élevée ou abaissée selon les besoins.

2•    Services différenciés de transaction et de stockage. Dans une structure mutualisée, différentes méthodes sont utilisées pour générer des services différenciés. Par exemple, on a recours à une file « prioritaire » pour les services les plus importants et à une file «sans perte » pour le trafic qui ne peut pas être abandonné mais qui peut supporter un certain retard.

3•    Gestion: le VLAN de gestion est activé avec une limitation du débit fixée à 1 Gbit/s.

3 – Couche stockage : MultiStore et FlexShare

Dans l’environnement d’exploitation Data ONTAP de NetApp, le logiciel MultiStore procure aux environnements mutualisés une isolation sécurisée.

Au niveau du stockage, pour assurer la qualité de service, il est nécessaire de contrôler la mémoire cache du système de stockage et le degré d’utilisation du processeur. Il faut également s’assurer que les charges de travail sont réparties sur un nombre approprié de ressources processeurs. NetApp a développé FlexShare pour contrôler l’attribution de priorités aux charges de travail.

Avec FlexShare, trois paramètres indépendants peuvent être réglés pour chaque volume de stockage ou chaque unité vFiler dans une configuration MultiStore. On peut ainsi accorder la priorité à une partition colocataire par rapport à une autre.

Le ‘thin provisioning’ (provisionnement fin) de NetApp offre aux colocataires un certain niveau de « stockage à la demande ». La capacité brute est considérée comme une ressource partagée et n’est consommée que selon les besoins. Lorsque l’on déploie des ressources à ‘provisionnement fin’ dans une configuration mutualisée, on doit définir des règles de croissance automatique du volume et de suppression automatique de Snapshots.

La croissance automatique du volume permet à un volume de se développer selon des incréments définis, jusqu’à un seuil prédéfini. La suppression automatique permet de supprimer automatiquement les copies Snapshot les plus anciennes lorsqu’un volume est presque plein.

En associant ces fonctions, on peut accorder aux colocataires importants la priorité pour la croissance d’un volume, à partir de l’espace réservé du pool partagé. À l’inverse, les colocataires de moindre niveau doivent faire appel à un administrateur.

Chris Naddeo (*)

Ingénieur Marketing et Technique pour UCS , Cisco Systems

(*) Chris Naddeo a rejoint Cisco pour se consacrer à la conception d’architectures de stockage optimales pour l’offre UCS ( Unified Computing System) de Cisco.  Il a notamment travaillé un an chez NetApp en tant qu’ingénieur-consultant système pour Oracle et Data ONTAP GX. Il a également exercé pendant neuf ans comme responsable produit chargé des logiciels de stockage chez Veritas.
___________________________________________

Vidéo: table ronde Cisco, NetApp, VMware
Bruno Dutriaux, ‘business development manager’ chez Cisco France, Bruno Picard, directeur technique de NetApp France, et Sylvain Siou, directeur technique de VMware France, expliquent les enjeux des datacenters virtualisés.

Page: 1 2 3 4

Recent Posts

Métiers IT : comment le Cloud et la cybersécurité transforment la DSI

En accélérant le recours aux méthodes agiles et aux technologies cloud et en faisant de…

2 années ago

Digital workplace : le Chromebook prend ses marques

Les ventes record enregistrées fin 2020 et début 2021 marquent-elles le décollage tant attendu des…

2 années ago

Digital Workplace : pourquoi le Mac marque des points

Apple marque des points dans les parcs d'entreprises. Jamais le Mac n’a été un choix…

2 années ago

Serverless : pourquoi faut-il migrer ses applications ?

Ce sera, sans nul doute, la mission numéro un des DSI pour ces prochaines années…

2 années ago

Digital Workplace : comment organiser le travail en mode hybride

Alors que le télétravail est appelé à s'inscrire dans la durée, une nouvelle organisation de…

2 années ago

EDR : pourquoi le modèle managé MDR s’impose

Les offres de cybersécurité ont le vent en poupe et le marché des solutions EDR…

2 années ago