Pour gérer vos consentements :
Categories: Cloud

Xavier Pestel – Weborama : « Nous faisons du Kubernetes au quotidien »

« L’infrastructure DMP de la R&D de Weborama s’appuie sur deux fournisseurs cloud public, avec une dizaine de GKE sur Google Cloud , deux clusters Kubernetes et une centaine d’instances sur notre second cloud provider. Tous ces clusters sont managés par les cloud providers.

Xavier Pestel – Lead SRE chez Weborama

En parallèle, nous avons nos deux datacenters où nous disposons de plusieurs centaines de serveurs et VM, deux clusters Kubernetes sur un premier et un troisième cluster sur le second datacenter. Cela représente beaucoup de machines.

Avant Kubernetes, nous avions des machines virtuelles, des machines physiques, avec une part plus importante en datacenter. Nous étions dans une approche de type « Excel as a Service » avec un suivi manuel de nos applicatifs et nos services.

Ce fut le point de départ en 2018 d’une expérimentation de Kubernetes, avec une volonté d’éliminer au maximum les traitements manuels. Le premier volet de cette transformation est organisationnel. Lorsqu’on a plusieurs clusters Kubernetes situés dans différents cloud, il faut une grande rigueur.

Sur GCP, on fonctionne par projet, l’idée étant de créer un cluster pour chacun d’entre eux et disposer de notre stack de monitoring complète pour collecter les métriques avant de les centraliser.

L’approche est la même chez notre autre fournisseur cloud avec du Kubernetes managé. Nous appliquons ce même principe dans nos datacenters. L’ensemble de ces clusters sont répartis sur deux environnements différents.

La règle, c’est que lorsqu’on veut déployer des applications qui ont besoin de monitoring comme des clusters Couchbase ou Redis ou MySQL, on les exporte dans Kubernetes. Les déploiements des clusters sont menés en Terraform pour le volet cloud et Salt/Kubadm sur nos datacenters.

Pour les applicatifs, c’est du mode « gitops » pour combiner Flux et Helm et disposer d’un déploiement totalement automatisé. Le bilan, c’est que nous faisons maintenant du Kubernetes au quotidien. L’autoscaling et l’autoguérison règlent certains problèmes et ont permis de réduire les volumes d’astreintes, mais peuvent poser d’autres problématiques à traiter sur le long terme.

Nous avons résolu notre problématique d’homogénéisation de services, avec des déploiements facilités avec le passage au GitOps. Nous avons automatisé notre monitoring. Et l’ensemble des services sont autodécouverts à l’échelle de tout le parc grâce à consul (dans ou hors Kubernetes). »

Propos recueillis par Alain Clapaud

Pour aller plus loin :
> Migrer ses applications dans le cloud : quelle méthode choisir ?
> Retex : pourquoi la Cnav développe son cloud privé

Recent Posts

Science & Vie lance son Incubateur

Avis aux ingénieurs, inventeurs, startuppeurs...Lancé en partenariat avec l’INPI, l’accélérateur de startup 50partners, et les…

3 heures ago

À quoi s’attendre avec les PC Copilot+ ?

Les premiers « PC Copilot+ » arrivent sur le marché en juin. Tour d'horizon des…

4 heures ago

Slack défend sa politique d’exploitation de données

Attaqué sur son usage des données des clients pour l'entraînement d'IA, Slack tente de justifier…

11 heures ago

Ce qui change avec la version 2024 du référentiel d’écoconception de services numériques

Un an et demi après sa publication initiale, le RGESN est mis à jour. Tour…

1 jour ago

Microsoft x Mistral AI : l’Autorité britannique de la concurrence renonce à enquêter

Le régulateur britannique de la concurrence renonce à une enquête approfondie sur le partenariat de…

1 jour ago

MFA obligatoire sur Azure : ce que prépare Microsoft

À partir de juillet 2024, Microsoft imposera progressivement le MFA pour certains utilisateurs d'Azure. Aperçu…

1 jour ago