10 conseils pour optimiser son Datacenter et réduire la complexité

Numérisation des métiers, explosion du stockage, demandes croissantes pour davantage de souplesse et de réactivité… Les DSI doivent en permanence jongler entre une évolution pressante des besoins et la complexité croissante de leurs datacenters.

Au fil des années, les datacenters ont gagné en complexité avec des infrastructures toujours plus hétérogènes qui entraînent une explosion des coûts, une inefficacité croissante sans oublier l’affaiblissement générale de la sécurité, la complexité étant l’ennemie jurée de la sécurité.

Pour retrouver de l’agilité, optimiser les coûts et disposer d’un environnement paré pour la transformation digitale, il faut retrouver de la simplicité ! Voici nos 10 conseil pour y parvenir :

  • Diminuer le nombre de serveurs

Selon différentes études, près de 30% des serveurs dans les datacenters sont sous-exploités, consommant inutilement énergie, ressources, espace et licences. Il faut renforcer l’effort de consolidation et de virtualisation, entrepris par la majorité des DSI depuis quelques années. Opérer son infrastructure avec moins de serveurs mieux exploités est la base de toute simplification. La virtualisation est un moyen simple d’y parvenir. Les conteneurs apportent eux aussi une alternative pour densifier les applicatifs sur un même serveur. En utilisant des serveurs plus récents, plus puissants et moins nombreux, on peut gagner jusqu’à 70% d’espace dans le datacenter.

  • Simplifier l’architecture réseau

Eléments ajoutés au fil des nouvelles applications, appliances, serveurs sans que le câblage ne soit jamais repensé … La complexité croissante du réseau est coûteuse en maintenance, en espace occupé dans le datacenter et en refroidissement. Limiter le nombre de switchs et de câbles est impératif. Au-delà, il faut surtout optimiser le management du réseau avec les solutions de type SDN (Software-Defined Network) qui favorisent une vision unifiée de l’intégralité du réseau tout en automatisant une grande partie des tâches, limitant ainsi le risque d’erreur humaine.

  • Passer au Software-Defined Storage :

Flash, Big data, virtualisation… explosion des données et évolutions technologiques imposent de repenser totalement le stockage. Dans cette perspective, l’approche SDS (Software-Defined Stockage) change la donne.
Les fonctionnalités classiques de tiering, thin-provisionning, snapshots, réplication, compression ou déduplication sont gérées par une couche logicielle qui pilote les espaces de stockage comme un pool unique. Offrant un maximum de souplesse, des plateformes SDS comme HPE StoreVirtual, favorisent une évolution horizontale fluide et simple des capacités de stockage, une optimisation de l’utilisation du stockage et des serveurs, une meilleure protection des données (grâce aux fonctions intégrées de restauration après incident) et surtout une réduction des coûts de maintenance grâce à l’administration centralisée. Selon HPE, le SDS pourrait réduire les investissements en stockage de 80% et les coûts énergétiques associés de 60%.

4-  Opter pour les systèmes hyperconvergés

Les systèmes hyperconvergés constituent en quelque sorte la concrétisation des trois conseils précédents, l’adoption d’une appliance d’hyperconvergence permettant de migrer rapidement une ancienne architecture vers un environnement moderne et efficiente.
Intégrant serveurs, stockage et réseau dans une appliance construite autour d’une solution SDS embarquée, les solutions hyperconvergentes, comme celles proposées par HPE SimpliVity, contribuent à la simplification du processus de consolidation.
Au passage, l’entreprise gagne en réactivité et en agilité avec une administration considérablement simplifiée par une console centrale.

5- Adopter l’infrastructure Composable

Poussant le concept d’automatisation et d’agilité plus loin, HPE propose une infrastructure « composable » intégralement définie par logiciel (SDI pour Software-Defined Infrastructure) qui associe des éléments matériels (compute, storage, network) à haute densité à une intelligence logicielle et à une API unifiée permettant une automatisation totale de l’ensemble (provisionnement, orchestration, opérations automatisées).

Pour Scott Wood, VP solutions & technology chez HPE, avec cette approche « vous n’avez plus à acheter une infrastructure qui répond aux besoins d’un workload particulier, vous composez et décomposez votre infrastructure à volonté pour supporter les différents workloads en fonction de vos évolutions ». Base idéale pour la création d’un cloud privé, cette offre baptisée Synergy engendre une réduction de 43% des coûts de matériel et de maintenance tout en accélérant de 94% la mise à disposition des ressources.

6- Opter pour une administration centralisée

L’efficacité passe aussi par une vision unifiée des systèmes et traitements. Dans ce cadre, des solutions DCIM (Data Center Infrastructure Management), dont HPE OneView, proposent un tableau de bord pour l’intégralité de votre infrastructure.
Quel que soit le nombre de serveurs, profils et boitiers, vous disposez d’une vision globale et unique pour gérer vos ressources et mieux cerner à quel point elles sont pleinement utilisées.
Les solutions DCIM favorisent aussi une prise de décision proactive, permettant de mieux anticiper les évolutions ou les pannes. Vous pouvez même provisionner des ressources physiques, virtuelles et conteneurisées à l’aide d’une simple ligne de code via l’API proposée par HPE OneView.

7- Adopter le cloud et penser hybride

Elasticité, réactivité, souplesse, agilité, nouvelle équation économique … le cloud public offre de nombreux avantages. Il constitue un atout pour simplifier votre datacenter, le déchargeant par exemple de ressources peu exploitées et donc inutilement coûteuses.
Toutefois, pour que vos débordements dans le ou les cloud(s) public(s) puissent être perçus comme une extension naturelle du datacenter, vous avez besoin de solutions de gestion de cloud hybride.
Le projet New Stack de HPE, par exemple, offre une supervision avancée des environnements hybrides, avec la possibilité de provisionner et orchestrer des ressources on-premises ou dans les clouds publics, le tout en optimisant les coûts et l’utilisation des ressources.

8 -Automatiser tout ce qui peut l’être

Serveurs physiques et virtualisés, équipements réseau, bases de données, middlewares… l’automatisation a gagné toutes les strates du datacenter. Elle libère les collaborateurs des tâches répétitives et ingrates et limite les risques d’erreurs ou d’oubli tout en leur permettant de se concentrer sur des missions à valeur ajoutée. Pour tirer le meilleur profit de l’automatisation, adoptez les API unifiées (comme celles de HPE OneView) ou les solutions logicielles plus évoluées à l’instar d’HPE Data Center Automation, une appliance virtuelle qui automatise les tâches IT et orchestre les processus IT tels que le provisioning, le patching, l’audit, le suivi de conformité, etc. et ce sur des environnements homogènes ou pas.

9- Mettez le Big Data au service de l’IT

Capitaliser sur les données n’est pas uniquement réservé aux métiers ! En exploitant les données collectées de part et d’autre, l’IT maîtrise mieux ses environnements, gagne en compréhension sur les interdépendances et optimise la sécurité de ses infrastructures.
D’autant qu’elle dispose aujourd’hui des mêmes outils analytiques que les métiers, certains services d’analyse dédiés à l’IT étant même commercialisés en mode SaaS.
C’est notamment le cas de HPE Smart Data Center Analytics, une solution qui agrège les informations Netflow, sFlow ou CMS, les analyse et délivre des recommandations.

10- Optimiser la consommation énergétique

Enfin, toute optimisation doit tendre vers une diminution de la consommation énergétique. Typiquement, la consolidation sur de nouveaux serveurs moins énergivores, l’adoption de systèmes hyperconvergés ou d’infrastructure composable contribuent à réduire le nombre de serveurs mais aussi l’occupation d’espace, réduisant d’autant les besoins en refroidissement.
Dans cette perspective, privilégiez les serveurs dotés de fonctions avancées, tels les HPE Gen 10. « Leur fonction Intelligent System Tuning ajuste dynamiquement la performance des serveurs en fonction des besoins du workload. Il en découle des économies d’énergie conséquentes » explique Tim Peters, VP Servers de HPE.