Pourquoi et comment passer à l’IT composable HPE ?

Après la grande vague de la virtualisation, puis celle des architectures convergées, voici l’ère des architectures composables. Celles-ci viennent apporter la souplesse requise par la nouvelle économie tout en gommant les défauts de leurs devancières.

Les analystes ont baptisé cette nouvelle génération, les architectures composables. Car si la virtualisation, les infrastructures convergées puis hyperconvergées ont apporté une grande souplesse dans le déploiement des serveurs et architectures réseau virtuelles, l’approche software-defined se devait d’aller plus loin.

À quoi bon automatiser et optimiser à outrance le déploiement des machines virtuelles si une part non négligeable du système d’information fonctionne sur des architectures classiques ? Que ce soit pour des raisons techniques ou, plus souvent, pour des raisons de licencing, il n’est pas possible d’unifier totalement un système d’information dans une infrastructure hyperconvergée.

De ce besoin sont nées les architectures composables. Une approche plus souple conçue pour accueillir tant les applications de nouvelle génération que les applications existantes. Sans surprise, parmi celles-ci figurent les briques les plus critiques du système d’information : ERP, systèmes transactionnels, systèmes CRM et systèmes décisionnels sont les plus fréquemment cités par les responsables. Parmi les applications de nouvelle génération figurent bien évidemment le Big Data, les plateformes mobiles et les médias sociaux.

Applications

L’architecture composable, une plateforme bâtie pour l’IT bimodale

Olivier Petit, HPEBien évidemment, si les métiers poussent pour mettre en ligne rapidement de nouvelles applications, il est impossible de se passer des applications legacy, indispensables aux processus de fonctionnement de l’entreprise. Olivier Petit, responsable des offres Synergy, BladeSystem et OneView d’HPE souligne : « Ceux-ci doivent continuer à assurer le fonctionnement des applications qui ont permis d’automatiser un certain nombre des processus des entreprises, comme les bases de données, les ERP, la messagerie puis la virtualisation. »

 

Si la mise en place d’une IT bimodale est la réponse des grandes DSI pour répondre à ce double besoin de maintenir un existant et d’assurer le succès des nouveaux projets, cette approche présente de nombreux effets de bord et surcoûts. « Le système d’information se retrouve scindé en deux parties, avec d’un côté des infrastructures traditionnelles placées en silo avec leurs propres outils d’administration dédiés, du personnel dédié et des processus bien spécifiques qui ont été mis en place afin de porter cela, explique Olivier Petit. Ces applications et leurs infrastructures évoluent très peu, sont rigides, peu évolutives alors que le business réclame une nouvelle génération d’applications qui exige une grande rapidité dans les déploiements et les évolutions, une grande flexibilité en termes d’infrastructures pour faire face aux évolutions de la demande. Il faut être capable de maintenir l’existant tout en faisant une place croissante aux nouvelles applications, et les approches, les pratiques habituelles ne sont plus en ligne avec les besoins. En ce sens, les architectures composables constituent une nouvelle étape dans le cycle d’évolution des infrastructures et c’est la réponse à une problématique d’IT bimodale à laquelle sont confrontées aujourd’hui les entreprises. »

Personnel en partie dédoublé et processus de production distincts engendrent un surcoût non négligeable. Dans son étude « Quantifying Datacenter Inefficiency: Making the Case for Composable Infrastructure », IDC juge assez durement l’efficacité des DSI dans leur activité de maintien en conditions opérationnelles du système d’information. L’efficacité moyenne des membres de la production informatique est estimée à 55 % seulement, minée par les tâches répétitives et de fréquentes interventions manuelles. L’efficacité moyenne des processus n’attendrait que 30 %, essentiellement du fait de trop nombreuses étapes dans le provisioning des ressources, le manque d’automatisation et par la bureaucratie engendrée par le fonctionnement de l’entreprise. Enfin, IDC évoque un autre aspect caché de ces architectures bimodales, le manque d’efficacité du système d’information lui-même, qui atteindrait 50 %.

Une informatique en silo limite, par définition, la possibilité de mutualiser les ressources. Alors que l’infrastructure dédiée à l’ERP a été dimensionnée afin de tenir la charge en période de clôture, le reste du temps les ressources machines sont notoirement sous-utilisées. Le constat est le même pour la plateforme d’e-commerce, dimensionnée pour les soldes, pour les applicatifs métiers sous-utilisés dans la nuit, etc. Le seul moyen de réellement mutualiser les ressources IT de l’entreprise à l’échelle de l’ensemble de ses infrastructures, c’est de constituer un pool de ressources que l’on va pouvoir attribuer en fonction des besoins réels des applications et des métiers. C’est d’aller vers les architectures composables.

NextPhase

Mettre en place une infrastructure commune pour toutes les applications

Entretenir deux infrastructures distinctes reste un sport réservé aux entreprises qui disposent de budgets IT conséquents. Or, la plupart des DSI sont confrontées à une pression sur les budgets. Pour elles, cette approche bimodale sera difficile à tenir sur le long terme et l’architecture composable apparaît comme une solution bien adaptée à ce type de contraintes. La promesse est de faire cohabiter dans le même rack applications de nouvelle génération et applications traditionnelles dont on favorise habituellement le choix de l’architecture en privilégiant le rapport prix/performance, prix/capacité et prix/disponibilité. L’enjeu est de faire cohabiter sur la même infrastructure ces applications avec des applications qui ont besoin d’être déployées très rapidement, de monter en puissance quasi instantanément, mais aussi qui peuvent être décomissionnées tout aussi vite, en cas d’échec commercial.

Les architectures composables offrent les moyens techniques de constituer une infrastructure unique qui optimise les coûts d’exécution des applications traditionnelles tout en étant totalement flexibles pour les applications modernes. « Cette notion de vitesse est extrêmement importante, souligne Olivier Petit. L’objectif d’une architecture composable est de pouvoir déployer une infrastructure complète serveur/stockage/réseau jusqu’au niveau OS en quelques secondes seulement. Il faut être capable de réaliser cela très simplement, au travers d’une interface unique. »

Pour réellement provisionner les images serveur en quelques secondes, dans son offre d’infrastructure composable Synergy, HPE a intégré la solution Image Streamer. Il s’agit d’un serveur dédié qui va littéralement pousser les images serveur sur les machines en quelques secondes seulement et mettre en production des serveurs plus rapidement que ne peut le faire un hyperviseur traditionnel. En outre, il peut s’agir d’image serveur virtuelle, mais aussi d’image serveur de type bare metal, ce qui rend la solution universelle en environnement x86.

HPE Synergy Image Streamer

Autre atout d’une architecture composable, un serveur rack classique offre un certain nombre d’emplacements processeur, la capacité de pouvoir porter 10, 15, jusqu’à 25 disques durs et des emplacements pour 2, 3, 4 cartes réseau. L’architecture composable casse littéralement ces ratios classiques. Elle offre la possibilité de n’ajouter que les processeurs et la mémoire dont on a besoin, que les disques et cartes réseau requis afin d’être au plus proche des besoins réels des applications. Il devient ainsi possible de provisionner un serveur avec 70 disques durs. Si un serveur qui dispose déjà de 25 disques durs a besoin d’un 26e, habituellement il faut acheter un serveur supplémentaire pour ajouter le disque manquant. En architecture composable, il suffit de piocher dans le pool de disques durs disponibles et d’affecter la ressource nécessaire au serveur.

Pour constituer cette infrastructure composable, HPE offre un large éventail de modules de traitement et de stockage qui vont venir peupler le boîtier Structure Synergy 12000. On retrouve ainsi à son catalogue des serveurs biprocesseurs, des quadriprocesseurs, avec des Xeon E5 et E7. Et la capacité de coupler par exemple deux serveurs biprocesseurs E7 grâce à ce que l’on nomme le patch panel, afin de transformer ces deux machines en un seul quadriprocesseur E7. C’est une fonction héritée des systèmes Blade Integrity. Un seul module de stockage Synergy D3940 offre 40 emplacements à petit facteur de forme pour accueillir autant de disques SAS à 12 Gbit/s, des disques SATA à 6 Gbit/s ou encore des disques SSD SAS. La capacité brute d’un module de stockage peut ainsi atteindre 153,6 To. Un boîtier Synergy 12000 peut accueillir 5 modules de stockage, soit un total de 200 disques.

Synergy 480 Gen9

Un gain de productivité pour les administrateurs

L’infrastructure composable est capable de répondre à tous les besoins applicatifs, que ce soit en environnement virtualisé, en container ou même avec des « bare metal » et si, techniquement, l’architecture composable doit permettre de rapprocher des mondes qui fonctionnaient jusqu’ici en silo, celle-ci doit aussi permettre aux administrateurs de travailler plus efficacement, notamment en allant vers des modèles software defined.

Désormais, ce sont avec les mêmes outils que les administrateurs Windows, les administrateurs Unix, responsables réseau et stockage vont intervenir, avec des gains évidents en termes de souplesse et de flexibilité que cela représente. L’approche software-defined permet de définir des modèles d’architecture pour, par exemple, une infrastructure de messagerie, un serveur de base de données, des serveurs virtualisés, etc. Ces modèles peuvent ensuite être réutilisés x fois, en fonction des besoins, et ce de manière quasi instantanée. Via l’outil HPE Synergy Composer.

La solution détecte les ressources physiques à sa disposition et gère de manière fluide les pools de ressources en assemblant/désassemblant les configurations en fonction des montées en charge et des ressources libérées. Le fonctionnement tire profit au maximum de la notion de modèles et réduit la part des interventions humaines autant que possible. En outre, le Composer offre un jeu d’API RESTful unifié qui rend la plateforme totalement pilotable par logiciel, dans une approche de type « Infrastructure as a code ». Enfin, comme toutes les entreprises ne sont pas à 100 % engagées dans cette approche, l’architecture composable HPE vient s’insérer dans des solutions comme System Center de Microsoft, vCenter côté VMware, mais aussi les outils d’automatisation et d’orchestration comme Chef, Docker ou Ansible. L’idée est d’étendre la valeur ajoutée de cette infrastructure composable en l’intégrant à l’écosystème du système d’information de l’entreprise.

HPE Synergy Composer

Une transition douce vers les architectures composables est possible

Qui dit nouvelle architecture, dit bien souvent remise à plat de l’existant et « Big Bang » dans les salles machines. Pour Olivier Petit, il est possible de bénéficier de la flexibilité apportée par les architectures composables rapidement sur un premier projet, puis d’engager un déploiement progressif vers les autres applications : « Généralement, il faut partir d’un besoin précis, puis élargir la démarche. C’est tout l’atout de l’architecture composable. Les entreprises vont pouvoir migrer petit à petit leur virtualisation, leurs serveurs de messagerie, et chaque système au fur et à mesure que son infrastructure devient obsolète ou arrive en fin d’amortissement et doit être remplacée. L’atout de l’architecture composable, c’est qu’elle n’impose pas de réaliser un Big Bang complet pour pouvoir bénéficier de ses avantages. »

Il est aussi nécessaire de bien cerner la place que va occuper l’architecture composable dans l’informatique de l’entreprise. Celle-ci n’a pas vocation à remplacer l’intégralité du système d’information. « L’architecture composable n’a pas vocation à être l’alpha et l’oméga du système d’information. Elle n’a pas vocation à absolument tout remplacer dans le datacenter de l’entreprise, estime Olivier Petit. C’est une solution qui reste bien évidement dans le monde x86 et l’architecture composable ne vient pas nécessairement remplacer les SAN et NAS ou le cœur de réseau lui-même » conclut notre expert. À chaque entreprise de découvrir les « quick-win » qui lui permettront de déployer ses premiers boitiers Synergy, puis ensuite faire bénéficier de la souplesse des architectures composables à ces applications, au fur et à mesure du remplacement des architectures obsolètes.

Olivier Petit, responsable des offres Synergy, BladeSystem et OneView, HPE France : « Les architectures composables constituent une nouvelle étape dans le cycle d’évolution des infrastructures et c’est la réponse à une problématique d’IT bimodale à laquelle sont confrontées aujourd’hui les entreprises. »