C'est Noël chez Microsoft, Hyper-V est en avance !

Fait au combien rarissime chez l’éditeur, la bêta publique de son hyperviseur serveur de virtualisation est disponible en avance sur le planning !

Composants clés de la technologie Hyper-V de Windows Server

Hyper-V est le prochain moteur de virtualisation (hyperviseur) de Windows Server 2008. Il permet de créer des systèmes virtuels qui tirent parti du matériel, exécutent plusieurs systèmes d’exploitation, et administrent des ressources à la fois physiques et virtuelles à l’aide d’outils standards identiques.

Hyper-V se caractérise par les points suivants :

Architecture plus évoluée : Une nouvelle architecture hyperviseur 64 bits à micro-noyaux permet à Hyper-V de prendre en charge une vaste gamme d’appareils, sans sacrifier les performances ni la sécurité.
Prise en charge de plusieurs systèmes d’exploitation : Possibilité d’exécuter simultanément différents types de systèmes d’exploitation, 32 bits et 64 bits, sous différentes plateformes serveurs comme Windows et Linux.
Prise en charge de SMP : Possibilité de prendre en charge jusqu’à 4 multiprocesseurs (SMP) sur un système virtuel pour exploiter les applications multithreads.
Grande allocation de mémoire : L’allocation d’une grande quantité de mémoire par système virtuel permet de virtualiser la plupart des charges de travail et fait d’Hyper-V une plateforme pour toutes les entreprises.
Accès facilité au support de stockage : Avec un accès direct aux disques, la prise en charge des SAN et un accès aux disques internes, Hyper-V s’annonce souple pour configurer et utiliser les environnements de stockage.
Équilibrage de la charge réseau : Hyper-V se dote d’une nouvelle fonction de routeur virtuel. Autrement dit, les systèmes virtuels peuvent exécuter le service NLB (Network Load Balancing) de Windows afin d’équilibrer la charge sur les systèmes virtuels des différents serveurs.
Nouvelle architecture de partage matériel : La nouvelle architecture VSP/VSC (fournisseur et client de services virtuels) d’ Hyper-V facilite l’accès aux ressources de base (disques, mise en réseau, vidéo, etc.) ainsi que leur utilisation.
Migration rapide : Hyper-V permet de faire migrer rapidement un système virtuel en cours d’exécution, d’un hôte physique à un autre, sans quasiment aucun temps d’arrêt. De quoi exploiter les fonctions de haute disponibilité de Windows Server et les outils d’administration de System Center.
Cliché de machine virtuelle : Hyper-V donne la possibilité de prendre des clichés (snapshot) d’une machine virtuelle en cours d’exécution. Ce qui permet de revenir facilement à un état antérieur et améliorer la solution de sauvegarde et de restauration.
Capacité à monter en charge : L’environnement de virtualisation peut monter en puissance avec la prise en charge de plusieurs processeurs et noyaux au niveau de l’hôte et l’amélioration de l’accès mémoire sur les machines virtuelles. Il devient possible d’héberger davantage de systèmes virtuels sur un hôte donné et de procéder à une migration rapide sur plusieurs hôtes pour faire face à de nouvelles charges.
Extensibilité : Hyper-V offre des interfaces WMI (Windows Management Instrumentation) standard et dispose d’API pour permettre aux éditeurs de logiciels et aux développeurs de créer rapidement des outils, des utilitaires et des améliorations sur mesure pour la plateforme de virtualisation.

Scénarios d’utilisation de Windows Server Hyper-V

Hyper-V dispose de quatre scénarios de base : consolidation des serveurs, continuité du service, test et développement et centre de données dynamique. Avec la suite d’administration Microsoft System Center, il dispose d’une solution complète et intégrée, capable de travailler avec des systèmes virtuels et des serveurs physiques et d’étendre les capacités d’Hyper-V.

Consolidation des serveurs La consolidation des serveurs constitue le premier vecteur d’adoption de la technologie de virtualisation. Les entreprises cherchent sans cesse à simplifier l’administration, à réduire les coûts et à conserver, voire renforcer, leurs atouts concurrentiels : flexibilité, fiabilité, capacité à monter en charge et sécurité. C’est là qu’intervient principalement la virtualisation. Elle aide à consolider plusieurs serveurs sur une seule machine physique tout en les isolant les uns des autres.Il en découle un certain nombre d’avantages. Le premier est la baisse du coût total de possession . La virtualisation permet non seulement de diminuer le nombre de machines, mais aussi de réduire les coûts d’électricité, de climatisation et d’administration. Le deuxième est l’ optimisation de l’infrastructure qui résulte à la fois de l’utilisation optimale des ressources, mais aussi de l’équilibrage de la charge entre les différents systèmes. Le troisième avantage est une souplesse accrue qui donne la possibilité d’intégrer librement, dans un même environnement, des charges de travail 32 bits et 64 bits.
Continuité du service et récupération après incident La continuité du service offre la possibilité de minimiser les temps d’arrêt, planifiés ou imprévus. Il peut tout aussi bien s’agir du temps perdu à des fonctions de routine (maintenance et sauvegarde, par exemple) que de pannes inopinées. Hyper-V propose des fonctionnalités en ce domaine comme la sauvegarde en temps réel et la migration rapide. Les entreprises font alors preuve d’une haute disponibilité et d’une forte réactivité.La récupération après incident est indissociable de la continuité du service. Des catastrophes naturelles, des attaques malveillantes ou de simples problèmes de configuration comme des conflits logiciels peuvent paralyser les services et les applications. Pour remédier à ces situations, il faut généralement attendre l’intervention des administrateurs et la restauration des données sauvegardées. Grâce aux fonctions de cluster de Windows Server 2008, Hyper-V peut lancer une procédure de reprise dans des environnements informatiques et au travers des centres de données. Il utilise, pour cela, les fonctions de cluster disséminées géographiquement. La récupération étant rapide et fiable, elle limite la perte de données et permet de profiter de fonctions d’administration à distance.
Test et développement Les tests et le développement sont généralement les premiers bénéficiaires de la technologie de virtualisation. Les systèmes virtuels permettent aux équipes de développement de créer et de tester toutes sortes de scénarios dans un environnement, sécurisé et isolé, qui reproduit très précisément le comportement des serveurs et des clients physiques. En diminuant les coûts, en facilitant la gestion du cycle de vie et en élargissant la couverture des tests, Hyper-V optimise l’utilisation du matériel de test. Avec une prise en charge étendue du système d’exploitation hébergé et des points de contrôle, Hyper-V constitue une plateforme idéale pour les environnements de test et de développement.
Centre de données dynamique Conjugué aux solutions d’administration de systèmes existantes, Hyper-V aide à disposer d’un centre de données dynamique. On peut par exemple compter sur des systèmes dynamiques capables de s’auto-administrer et sur une véritable agilité opérationnelle. Des fonctions comme la reconfiguration automatique des systèmes virtuels, le contrôle souple des ressources et la migration rapide, place l’utilisateur en mesure de créer un environnement informatique dynamique où la virtualisation aide non seulement à régler les problèmes, mais aussi à anticiper les nouvelles demandes.