PME : Cap vers le 100 % virtuel !

Responsables informatiques, vous n’avez plus à vous poser la question. L’heure est à une architecture informatique 100 % virtualisée, éventuellement complétée de services Cloud. Et si vous devez renouveler votre infrastructure serveur et stockage, il est temps de penser systèmes convergés.

En 2016, la virtualisation s’est imposée comme la norme d’une infrastructure informatique moderne. Les entreprises les plus avancées ont non seulement généralisé la virtualisation à toutes leurs applications et tous leurs serveurs, mais ont aussi accompagné cette mutation d’une industrialisation et d’une automatisation de leurs processus d’exploitation. C’est ce que l’on nomme le Cloud privé.

Pour une PME qui doit moderniser son infrastructure technique, plus aucun doute n’est permis : il faut migrer tous les serveurs obsolètes vers une architecture 100 % virtualisée. Grâce à la mutualisation des ressources serveurs sur des machines performantes qui s’appuient sur les nouvelles générations de processeurs Xeon, les gains obtenus en termes de consommation électrique et d’encombrement en salle machine sont spectaculaires. De même que les tâches d’administration vont être réduites de manière drastique. La virtualisation est source d’économie, mais aussi, et peut-être surtout, dans ces temps où l’évolution économique est incertaine, d’agilité.

« La virtualisation est l’étape indispensable vers le Cloud privé ou hybride », explique Pascal Rabier, chef Produit systèmes hyperconvergés d’HPE France. « Tout le monde n’ira pas sur le Cloud public pour des raisons de bande passante réseau, de difficulté à prédire les coûts ou des raisons de sécurité. Le Cloud fixe néanmoins les nouveaux standards en matière d’agilité que doit avoir l’IT. Si on ne va pas vers la virtualisation, on ne pourra jamais s’aligner non pas sur les coûts, mais sur l’agilité, la capacité à déployer rapidement de nouveaux services, qui est devenue une clé de la compétitivité dans l’environnement économique actuel. C’est plus vrai encore pour les PME qui n’ont pas l’assise financière d’un grand groupe et qui doivent s’adapter rapidement aux évolutions de leurs marchés. Dans ce cadre, l’informatique est clé. »

S’il ne constitue plus un projet risqué technologiquement, le passage à la virtualisation nécessite un peu de méthode pour être un succès total.

Phase 1 : dresser un inventaire détaillé

La première tâche à accomplir dans un projet de virtualisation complète de l’infrastructure informatique, c’est se livrer à un inventaire complet des serveurs, des instances de systèmes d’exploitation en production et des éventuelles machines déjà virtualisées.

« Techniquement, aujourd’hui quasiment toutes les applications se virtualisent, estime Pascal Rabier. Ce qu’il faut gérer, ce sont les licences logicielles et les pratiques des éditeurs vis-à-vis des utilisateurs. C’est pour cela qu’il est important de réaliser cet inventaire de la manière la plus exhaustive possible afin d’avoir une idée claire quant à l’architecture cible qui va être mise en place. »

Lors de cette première phase, il faut patiemment consigner les ressources physiques de chaque machine, éventuellement relever les taux d’utilisation processeur, mémoire et disque. Ces données précises, ou des métriques moyennes, vont permettre de déduire la capacité globale en termes de CPU, mémoire, disque dont devra disposer le cluster de virtualisation qui pourra accepter l’ensemble des applications. Des abaques vont alors permettre de savoir combien de serveurs aligner face à cette charge machine et quelles ressources de stockage mettre en place. Avec les processeurs Intel Xeon des générations Haswell et Broadwell, les gains de puissance sont tels que ce renouvellement de plateforme, conjugué à la généralisation de la virtualisation, permet d’espérer une consolidation de nombreuses machines sur quelques serveurs seulement. Les intégrateurs sont aujourd’hui habitués à réaliser ce type d’estimation et il n’est plus à craindre de mauvaises surprises lors de la mise en production de l’architecture cible.

Pascal Rabier, HPE

Pascal Rabier, chef Produit systèmes hyperconvergés d’HPE France : « Aller vers la virtualisation, c’est acquérir la capacité à déployer rapidement de nouveaux services, ce qui est devenu une clé de la compétitivité dans l’environnement économique actuel. »

 

 

Attention à vos licences logicielles !

Si le volet équipement ne pose pas de problème, certaines applications peuvent causer des surprises en environnement virtualisé. Il ne s’agit pas de surprises liées à leur exécution, mais sur le plan de la conformité logicielle. Certains éditeurs facturent leurs licences en fonction du nombre de cœurs. Cette métrique ne pose pas de problème lorsqu’une machine est dédiée à l’application, mais lorsque l’on met en place un cluster de virtualisation, certains éditeurs imposent de comptabiliser tous les cœurs du cluster. De quoi remettre en cause l’équation économique de certains projets.

Dans la logique de ces éditeurs, la machine virtuelle qui exécute leur logiciel peut potentiellement exploiter toutes les ressources du cluster. Ceux-ci ne reconnaissent pas les mécanismes de partitionnement et de contrôle de ressources attribuées d’autres éditeurs. « À ce genre de problématique, il est possible de trouver des solutions. À l’extrême, dédier des machines physiques ou mettre en place un petit cluster de virtualisation dédié à la solution, si vraiment on ne peut pas migrer vers une autre offre logicielle. » Ce danger de conformité est un risque réel et plusieurs entreprises françaises l’ont appris à leurs dépens. Il faut analyser les contrats de licence en cours et prendre les devants avant d’être pris en défaut lors d’un contrôle inopiné.

Quel hyperviseur choisir ?

Si VMware a popularisé la virtualisation auprès de nombreuses entreprises françaises, d’autres solutions sont aujourd’hui suffisamment matures et performantes pour pouvoir être déployées en production. Hyper-V de Microsoft est une alternative intéressante, notamment d’un point de vue financier pour les entreprises qui s’appuient sur Windows Server. Des alternatives Open Source telles que KVM ou Xen ont été déployées avec succès par de nombreuses entreprises.

« Nos solutions sont bien évidemment compatibles avec tous les hyperviseurs du marché » souligne Pascal Rabier, qui ajoute « En termes de parts de marché, deux leaders se sont dégagés : VMware et Microsoft. Cela rassure généralement les entreprises d’aller vers ces leaders. Microsoft a beaucoup enrichi son offre Hyper-V ces dernières années. C’est une solution économiquement très intéressante pour les PME et certaines de nos appliances d’hyperconvergence sont déjà préintégrées avec Hyper-V et le Windows Azure Pack. » Cette connectivité vers le Cloud public Microsoft Azure permet d’aller très facilement vers une architecture Cloud hybride appuyée sur Microsoft Azure. Il s’agit d’une solution clé en main, mise en œuvre immédiatement et qui permet de faire évoluer l’architecture virtualisée vers le Cloud en cas de besoin. Afin de simplifier le déploiement, HPE possède à son catalogue des systèmes hyperconvergés livrés avec tous les composants logiciels pré-intégrés (HPE Hyper Converged 250 for MS Cloud Platform System).

L’offre Hyper-V présente de nombreux atouts, notamment pour les PME qui peuvent opter pour une licence Windows Server 2012 R2 ou le prochain Windows Server 2016, qui incluent des sessions virtuelles. Mais VMware, qui représente 70 % du marché français, reste la référence du marché de la virtualisation. « VMware garde une certaine longueur d’avance sur certaines fonctions, notamment sur ce qui est lié à la haute disponibilité, mais pour une PME, l’atout principal se situe plutôt dans les ressources humaines disponibles. De nombreux administrateurs systèmes sont formés et il est plus facile de trouver des compétences sur les solutions VMware. »

Quel type de serveur faut-il privilégier pour virtualiser une infrastructure ?

Serveurs classiques en tour ou en rack, serveurs lames ou serveurs haute densité, le responsable informatique dispose d’un grand nombre d’options pour créer son infrastructure, selon la densité souhaitée, la capacité à faire évoluer son infrastructure et son budget. Il peut opter pour la voie « traditionnelle » de la virtualisation, c’est-à-dire choisir un hyperviseur, choisir un fournisseur de serveurs, un fournisseur pour le SAN, des solutions réseau… « C’est une approche tout à fait viable, mais, en termes de temps de déploiement et de facilité d’utilisation, on peut aujourd’hui faire mieux avec les systèmes convergés et hyperconvergés, considère Pascal Rabier. Bien évidemment, certaines entreprises continuent encore à préférer des serveurs traditionnels pour monter leurs clusters de virtualisation, mais les systèmes de nouvelle génération ont désormais le vent en poupe. » La croissance attendue par les analystes pour les systèmes convergés est de l’ordre de 50 % à 60 % par an sur les 3 à 4 années à venir, ce qui va bien au-delà de l’évolution du marché global de l’IT, qui est aujourd’hui stable.

Ce concept de serveurs/appliances qui assurent à la fois le « compute », c’est-à-dire l’exécution de machines virtuelles, mais aussi le stockage, a fait la preuve de sa capacité à pouvoir être étendu potentiellement sans limites, en fonction des besoins de l’entreprise. Une critique apparue à l’arrivée des premières appliances portait sur la puissance trop limitée d’un nœud pour exécuter les applications les plus lourdes. Une critique balayée par Pascal Rabier : « Jusqu’à aujourd’hui, cette approche s’appliquait difficilement à certaines applications très exigeantes, c’est vrai, mais cette limite s’est beaucoup amenuisée. Chez HPE, les plus gros nœuds hyperconvergés que nous proposons comptent jusqu’à 44 cœurs physiques et 1,5 To de RAM. C’est une puissance tout simplement énorme pour un seul nœud par rapport à ce qui existait par le passé et bien peu d’applications nécessitent plus de ressources à l’heure actuelle. »

L’administration des plateformes virtualisées de plus en plus simple

Pour l’administration des plateformes virtualisées, HPE travaille sur deux axes. D’une part le constructeur fournit des plug-ins afin d’enrichir la plateforme fournie par l’éditeur de la solution de virtualisation, que ce soit vCenter pour VMware ou System Center pour Microsoft. « Le but est de manager les éléments de la plateforme relatifs aux serveurs, au stockage directement à partir de la même console, précise Pascal Rabier. Ainsi, la plupart des opérations sont réalisées via une seule et même console, au travers de nos plug-ins. On peut alors provisionner des disques, déployer des mises à jour sur les matériels depuis une seule et même console. »

Outre cette approche, HPE développe un second outil, de plus haut niveau, qui s’adresse à une population plus large, HPE Oneview User Experience, et qui va permettre de confier les opérations les plus courantes non plus à des experts en administration système et en virtualisation, mais potentiellement à tout membre du service informatique. L’outil permet de voir l’état général de l’infrastructure, de créer une machine virtuelle, de réaliser un backup, puis de le recharger en quelques clics.

« L’outil HPE Oneview User Experience s’appuie sur une interface Web au goût du jour d’un point de vue ergonomique et très simplifiée afin de pouvoir être utilisée par un opérateur qui n’est pas nécessairement un expert en virtualisation. Un autre avantage de cette solution Web, c’est qu’il s’agit d’un outil accessible à distance via les solutions de sécurité de type VPN mises en place par l’entreprise. » Gérer l’infrastructure de l’entreprise via un service Web et provisionner ou arrêter un serveur exactement comme sur Microsoft Azure, c’est maintenant une réalité.

HPE Oneview User Experience

Avec l’interface HPE Oneview User Experience gérer une infrastructure virtuelle est à la portée de tous.