Pour gérer vos consentements :

Comment Swisslife a bâti son Cloud privé en deux ans

Avant le projet de refonte

Nommé directeur des opérations IT de Swisslife en 2012, Denis Bourdon (en photo ci-dessus) se rend vite compte de l’impasse dans laquelle sont les infrastructures techniques du groupe : « avec l’architecture en place, nous n’allions pas pouvoir accompagner la transformation digitale de l’entreprise et ses projets. Ni assurer le rythme attendu de mise à disposition des infrastructures ». Et de parler « d’une impérieuse nécessité de refondre le socle technique » sur lequel s’appuient les métiers de l’assureur. D’autant qu’en parallèle, la société (4,2 milliards d’euros de chiffre d’affaires en France en 2014) doit gérer les problématiques d’obsolescence de ses équipements et de mise en place d’un plan de continuité d’activité (PCA). « Avec les infrastructures en place, déployer un PCA n’était économiquement pas raisonnable », relève le directeur technique.

S’engage alors un vaste projet de refonte qui va durer un peu plus de deux ans, entre la définition de l’architecture cible à l’été 2012 et la validation de l’opération via le test du PCA en octobre dernier. Une période au cours de laquelle toute l’infrastructure serveurs, stockage, sauvegarde, réseau et sécurité a été remplacée. Où la virtualisation a pris place sur 95 % des serveurs, selon les chiffres communiqués par Denis Bourdon. Et où un PCA a été mis en place, via notamment l’installation d’un mini datacenter en région parisienne dupliquant tous les environnements de production.

Prolonger la vie du datacenter

Le datacenter principal de Swisslife aujourd’hui.

Le nouveau socle technique – serveurs Cisco UCS, stockage et sauvegarde EMC et technologies VMware de virtualisation – est déployé dans le datacenter principal de Swisslife, à Roubaix. Si ce centre informatique date déjà d’un certain nombre d’années, le renouvellement des infrastructures permet d’en prolonger la durée de vie. « Si nous avions continué à accumuler les serveurs et le stockage, nous aurions dû faire évoluer l’alimentation en électricité et la production de froid du datacenter. Avec la virtualisation et des infrastructures plus modernes, nous avons pu éviter cette dépense et avons même arrêté une des climatisations », détaille Denis Bourdon.

Au total, 160 serveurs ont, à ce jour, été débranchés sur les 220 serveurs physiques présents en 2012. « Et on profite de l’évolution du socle applicatif pour en décommissionner d’autres », précise le directeur technique. Deux serveurs Aix sont ainsi sur les rangs. C’est d’ailleurs au gré de l’évolution des technologies ou de la migration des applications que la direction informatique, en collaboration avec l’intégrateur retenu sur ce projet (MTI), a bâti son plan de migration. Pour l’applicatif, le passage à la virtualisation se fait sans changer le socle logiciel (OS et middleware). Tandis que, sur les outils techniques, la DSI a également pratiqué des montées de versions sur les systèmes d’exploitation, pour s’aligner sur une mouture unique de Linux et de Windows (le cru 2008 de Windows Server).

Pour le directeur des opérations IT, qui a reçu pour ce projet le prix du CTO de l’année par le CRIP (Club des Responsables d’Infrastructure et de Production, association regroupant plus de 320 entreprises adhérentes), la principale difficulté de ce type de programme au long cours réside dans la capacité à rester focalisé sur la cible définie au lancement, « en termes d’architecture, de planning et de budget ». Pour éviter les dérives, Denis Bourdon a opté pour un pilotage à la semaine. Selon lui, la mise en place de la virtualisation n’a pas réellement soulevé de difficultés majeures, y compris en matière de licences logicielles. « Pour Oracle par exemple, nous avons bâtis des clusters dédiés afin de maîtriser le nombre de cœurs processeurs », critère qui sert de base au calcul de la licence.

Ne plus imposer le timing aux métiers

Réalisé dans le cadre de l’enveloppe budgétaire allouée par la direction de l’entreprise (2 millions d’euros pour l’infrastructure, autant pour l’intégration) et dans les délais impartis, le projet permet aujourd’hui aux métiers d’avoir des infrastructures plus rapidement à disposition. « Le timing d’un projet n’est aujourd’hui plus contraint par l’arrivée d’une infrastructure technique. Nous sommes en mesure d’allouer des ressources aux métiers très vite. Là où, auparavant, ils devaient attendre l’arrivée des infrastructures, commandées par lots pour bénéficier des meilleurs tarifs. » Autre bénéfice : la capacité à adapter l’environnement technique au plus près des besoins, de façon très souple.

Lors d’une opération de décommissionnement.

En bref, les métiers bénéficient d’un fonctionnement sur le modèle du Cloud. Chez Swisslife, en prolongement de la virtualisation, un portail permettant de provisionner des services de façon automatique a d’ailleurs été mis sur pied. Pour l’instant sans refacturation interne, même si la DSI a déployé le modèle Cigref de sensibilisation des métiers aux coûts des services IT.

Vers le Cloud hybride

Pour Denis Bourdon, l’une des priorités de 2015 consiste à réfléchir à l’extension de ce Cloud privé via des infrastructures publiques. « Pour des tests par exemple, on peut avoir besoin ponctuellement de puissance de calcul ou de capacités de stockage, commente Denis Bourdon. Le sujet consiste à savoir comment provisionner et déprovisionner des environnements techniques à cheval sur une infrastructure interne et une infrastructure externe. Il ne s’agit pas simplement de provisionner un serveur sur Amazon ! On touche là à des sujets techniques complexes, impliquant les load balancer, les firewalls… » D’ailleurs, l’autre prolongation qu’envisage le DSI touche elle aussi à l’automatisation et à l’orchestration, avec pour objectif de provisionner des infrastructures complètes via le portail. Ce qui inclut les OS, le middleware, la base de données, le load balancer ou encore le pare-feu.

A lire aussi :

Le Cloud public : une option pour les DSI, pas une priorité
Cloud : la Société Générale évalue les conteneurs Docker
Le Cloud public gagne l’Europe

Recent Posts

Legapass : comment protéger ses données privées jusque dans l’au-delà

Comment gérer les données numériques après la mort de son détenteur ? La jeune pousse…

1 jour ago

Iris, un assistant d’IA conversationnelle en langue des signes

Ivès, expert en accessibilité de la surdité, s’est associé à Sopra Steria et à IBM…

1 jour ago

GenAI : le Royaume-Uni poursuit ses investigations sur les partenariats de Microsoft et Amazon

L'Autorité de la concurrence et des marchés (CMA) a lancé la phase de recherche de…

2 jours ago

Clients de VMware : les raisons de la colère

Broadcom remplace pas moins de 168 logiciels VMware par deux grandes licences de location correspondant…

2 jours ago

Laurent Carlier – BNP Paribas Global Market : « L’IA permet de modéliser des relations plus complexes, mais il faut rester prudent »

La banque d’investissement utilise l'IA pour proposer des stratégies individualisées, en termes de rendement et…

2 jours ago

Open Compute Project : les datacenters partagent des bonnes pratiques pour l’environnement

OVHCloud partage ses efforts environnementaux au sommet de l’Open Compute Project qui se tient à…

3 jours ago