Schneider Electric mise sur l’énergie d’Amazon Web Services

CloudDatacentersDSIIAASOrchestrationProjets

Après plusieurs mois d’expérimentation, Schneider Electric a adopté la plate-forme d’Amazon Web Services pour étendre son réseau et migrer plusieurs applications. Entretien avec Philippe Cuerq, son Cloud Brokerage Service Manager.

Spécialiste mondial de la gestion de l’énergie, Schneider Electric a réalisé un chiffre d’affaires de 23,6 milliards d’euros en 2013. La société emploie plus de 150 000 personnes dans plus de 100 pays. Elle est leader sur des marchés comme les régies et infrastructures, industries et constructeurs de machines, les bâtiments non résidentiels, les centres de données et réseaux ainsi que le résidentiel.
Afin d’optimiser son infrastructure informatique, Schneider Electric a réalisé des tests avancés sur Amazon Web Services (AWS), et dispose aujourd’hui de plusieurs applications sur le Cloud avec des instances et une connectivité dédiées.

Une expérimentation Cloud concluante

En avril 2011, Schneider Electric lance une expérimentation avec AWS pour l’hébergement de ses sites Web. Après une rapide étude, il s’est avéré le leader sur ce marché semblait le plus pertinent. En outre, l’un de ses partenaires disposait d’expérience sur cette plate-forme.

Philippe Cuerq - Schneider Electric
Philippe Cuerq – Schneider Electric

« Après un démarrage rapide avec l’une nos applications, nous avons constaté la flexibilité et l’agilité de la plate-forme. Nous avons donc décidé de lancer un “vrai projet Cloud” afin de tester la mise à disposition de solutions AWS dans notre catalogue de services informatiques,» se souvient Philippe Cuerq, Cloud Brokerage Service Manager chez Schneider Electric. «Il s’agissait d’adopter les services réseaux et de sécurité afin d’étendre le réseau Schneider Electric via AWS.»
Après quatre mois d’utilisation, les retours sont très positifs. Toutefois, la plate-forme de montre quelques problèmes de performance. L’entreprise décide donc de renforcer la disponibilité de l’infrastructure en disposant d’un espace spécifique dans le datacenter d’Amazon. Elle améliore aussi les performances en installant des équipements d’accélération du trafic Riverbed chez AWS afin que l’expérience des utilisateurs soit identique à celles qu’ils ressentent en accédant aux applications internes.
« En 2012, AWS a lancé son offre VPC (Virtual Private Cloud), nous permettant de disposer d’un espace dédié dans son datacenter sur la côte est des États-Unis, et de créer une extension de notre réseau interne pour les applications non critiques,» explique Philippe Cuerq. En effet, AWS VPC permet d’avoir un espace privatisé isolé (de façon logique) afin de disposer de son propre réseau virtuel que l’entreprise définit. Par ailleurs, elle maîtrise l’environnement réseau : sélection de sa plage d’adresses IP, création de sous-réseaux, configuration de tables de routage et de passerelles réseau, exploitation de couches de sécurité….

Migrations en chaîne sur une plate-forme AWS optimisée

Très vite, les équipes métier internes adhèrent à la solution, car la fourniture d’infrastructures se révèle beaucoup plus rapide que le “canal historique”.

En 2012, l’infrastructure évolue avec de nouveaux services. Outre les instances de puissance de calcul EC2 et le stockage S3, Schneider Electric adopte entre autres RDS (bases de données relationnelles), EBS (stockage de type blocs)… « Et le VPN redondant entre le réseau interne et AWS est remplacé par un peering public direct », ajoute Philippe Cuerq.
En 2013, le projet prend de l’ampleur et s’accélère. Ainsi, un datacenter parisien dédié aux tests/développements/intégration est totalement migré sur le datacenter de la côte est des États-Unis d’AWS.

« De plus, plusieurs applications en production sont migrées sur la plate-forme d’Amazon, dont l’application de réseau social interne [NDLR: baptisé SPICE et basée sur la technologie TIBCO Tibbr] accessible via AWS-VPC en peering privé, et accessible par huit routes différentes, car l’application doit être disponible pour les filiales du monde entier. Le réseau social interne est utilisé par plus de 50 000 employés,» précise le manager.

En 2014, l’entreprise devient cliente de la nouvelle offre AWS Direct Connect permettant d’établir une connexion réseau dédiée avec les infrastructures d’Amazon. Une offre utilisée aussi bien pour les datacenters américains qu’européens. La société mène également une réflexion sur l’inévitable changement de modèle permettant de gérer et de suivre l’évolution de plus de 400 machines virtuelles s’exécutant dans trois datacenters d’AWS. «Nous avons donc lancé une division interne “Cloud Brokerage”,» rapporte Philippe Cuerq (qui en a été nommé manager). « L’objectif consiste à mettre en place tout le nécessaire pour piloter cette activité, pouvoir facturer aux différentes divisions métiers, et s’assurer que nous pouvons proposer des services aussi performants et de qualité en interne, via AWS ou avec un autre fournisseur Cloud.»

Le Cloud Brokerage pour un nouveau modèle informatique

Au cours de cette expérience, Schneider Electric a cherché à améliorer la qualité de service informatique tout en préservant une excellente expérience utilisateur. La combinaison des liens AWS Direct Connect et des accélérateurs Riverbed a permis d’optimiser les temps de latence, et d’anticiper les éventuels problèmes d’indisponibilité.
« D’ailleurs, les équipes informatiques de Schneider Electric ont une devise, “No Network, No Cloud !”,» confie le responsable Cloud Brokerage, soulignant l’importance de disposer d’une infrastructure à la hauteur des enjeux. « Certes, l’équation économique a prouvé qu’elle était favorable et les utilisateurs sont satisfaits de l’approvisionnement en ressources. Néanmoins sans forte connexion réseau, tout cela sera impossible. D’où notre initiative “Cloud Borokerage”, visant à mieux gouverner ses offres, à contrôler les aspects réseau, et pas seulement sur les fournisseurs d’infrastructures. Ainsi, nous avons également mis en place une connexion directe vers le datacenter européen de Salesforce. Les problèmes de latence sont sournois, car on ne sait pas toujours d’où provient le problème. La mise en place d’un peering privé nous confère une meilleure maîtrise et la possibilité d’intervenir directement.»

Une infrastructure interne encore indispensable

Quant aux applications critiques, l’entreprise en étudie l’opportunité. D’ailleurs, c’est aussi l’un des objectifs de “Cloud Brokerage“ consistant à passer à la vitesse supérieure.
« En revanche, nous ne souhaitons pas forcément nous débarrasser du matériel. Nous pensons que l’évolution va vers un modèle où nous aurons besoin des infrastructure opérée par un tiers, mais nous garderons toujours une partie de l’infrastructure en interne. Il nous faut disposer de nos propres serveurs physiques pour les situations où nous devons absolument maîtriser les performances, la confidentialité, la conformité réglementaire, etc. Si nous mettons en place une bonne automatisation entre notre système d’information et les fournisseurs de Cloud, cela restera transparent pour l’utilisateur interne de nos services qui ne souhaitent qu’une chose : que ses applications fonctionnent correctement sans avoir à se préoccuper d’où elles se trouvent, ni comment elles sont opérées,» conclut Philippe Cuerq.

A lire aussi :

Cloud : AWS seul échappé, Azure mène le peloton des poursuivants

Cloud : AWS muscle l’authentification sur son bureau virtuel

Crédit Photo : Melpomene-shutterstock

Auteur : José Diz
Lire la biographie de l´auteur  Masquer la biographie de l´auteur