Reportage au c?ur d’un data center critique de Colt

Réseaux

Malgré la chaleur environnante, ce ‘data-center’ de Colt très surveillé et
tenu confidentiel, reste… de glace. Photos reportage.

La salle de supervision: 24/24, 7/7

La pièce dédiée à la maintenance est constamment occupée, avec la présence de deux personnes, la nuit comme les week-ends. Un formulaire d’aide disponible en ligne permet aux clients de détailler leurs demandes. Ces requêtes pré-formatées permettent aux équipes de Colt d’intervenir de façon proactive.

Les clients peuvent constater en temps réel le comportement d’un serveur grâce à un outil de monitoring commun: « Une transparence qui peut surprendre mais qui plait à nos clients « ,observe J. Viguerie.

« Le rôle de cette salle de supervision est de répondre aux appels « help desk » des clients ».Il s’agit donc d’un service de niveau 1 (environ 25 à 30 appels par jour).

« Nous avons développé des agents sur toutes les catégories de services figurant au catalogue. Et tout a été fait pour que les clients puissent monitorer leurs propres serveurs. L’intervention doit se faire rapidement. L’outil de ‘detecting’ permet de se connecter, de rétablir le service. La correction du problème se fait par une équipe de niveau 2. »

« Nous allons encore faire évoluer notre formulaire et notre présence en ligne pour toujours améliorer notre niveau de maintenance », précise J. Viguerie.

La structure du Data Center.

« Le ‘data-center’ occupe 650 métres carrés. Il est connecté au réseau ‘backbone’ de Colt via deux accès réseaux sur fibre optique (de part et d’autre du bâtiment), lesquels alimentent des groupes de 90 baies, où se rangent les fameux clusters de serveurs. »

« Ce ‘data-center’ est organisé autour de 5 clusters. Cette double sortie entrée permet d’assurer une plus grande sécurité dans le continuité de service » .

« En ce qui concerne la consommation électrique, notre choix est classique: deux arrivées EDF. Nous disposons également d’un générateur avec une cuve de carburant garantissant une capacité d’autonomie de deux jours. »

« La consommation électrique moyenne du centre est de 1,2 mégawatts. Chaque année nous subissons quelques petites coupures, dont une record de 7 minutes pendant l’hiver 2006. Les générateurs ont rapidement pris le relais «  déclare S. Moriaud.

 » Signalons que nous sommes en zone prioritaire EDF. En cas de coupure de courant nous sommes les derniers a être coupés et les premiers à profiter de la reprise du courant. Une condition sine qua non pour un ‘data center’. La bande passante ‘réseau’ du centre est de l’ordre de 2 Gbits/s » explique J.Viguerie.

« Le plus critique reste la ventilation car cela provoque des dégâts sur le matériel. Nous avons deux systèmes de refroidissement. Un ensemble de climatisation le long du data- center qui fonctionne à l’eau. Nous avons effectué d’importants travaux lors de la canicule de 2003. Auparavant il s’agissait d’un système fermé, l’eau est refroidie avec de l’air froid puis réinjecté. Pour supporter des températures de 42/43°, nous avons dû nous brancher sur l’eau de ville pour l’injecter directement. »

« La montée actuelle de température peut provoquer des problèmes au niveau d’une baie mal configurée, mais notre data center peut supporter des températures extérieures de 45° » conclut Viguerie.


Lire la biographie de l´auteur  Masquer la biographie de l´auteur