Pour gérer vos consentements :

Quelles architectures pour les datacenters de demain ? (tribune)

Il y a quelques années, j’ai eu l’occasion de visiter le centre de calcul de Météo France à Toulouse, et d’apercevoir un Cray qui servait à faire les prévisions à la fin du 20e siècle. C’était une machine monolithique circulaire, assez “design”. Tout le câblage était géré au centre du cylindre, les composants baignaient dans un liquide de refroidissement. Depuis, Météo France est passé, comme les géants du Web, au “commodity hardware”, une approche moins esthétique, mais plus économique. A l’heure où l’on s’interroge sur l’efficacité des datacenters, de nouvelles options émergent….

Les datacenters des opérateurs Cloud

Les opérateurs Cloud et les géants du Web constituent l’avant-garde des datacenters de demain. Google (entre 1 et 2 millions de serveurs), Microsoft (plus d’un million de serveurs), Facebook (créateur d’Open Compute) ont les projets les plus innovants. Ils ont depuis longtemps reporté la résilience du matériel, devenu “commodity hardware”, vers le logiciel de contrôle du datacenter (lire aussi « Le faux départ du Cloud souverain »)

Ils construisent leurs serveurs sur mesure. Google communique sur la migration des processeurs de x86 vers ARM. OVH (220 000 serveurs) met en avant le SSD pour les disques.

Pendant un temps, Google et Microsoft ont communiqué sur des conteneurs comprenant 2 à 3 000 serveurs, dont la maintenance démarrait lorsque la plupart des serveurs étaient hors service. Cette approche coûteuse semble démodée : on préfère rendre les serveurs accessibles. Peut être verrons-nous un jour les robots Kiva d’Amazon, aujourd’hui gestionnaires d’entrepôts, changer aussi les serveurs ?

Les expérimentations des géants du Web portent sur le refroidissement. Facebook a construit un datacenter à Lulea en Suède en raison des températures très basses permettant de réduire le coût énergétique du refroidissement. Google à Hamina, en Finlande, utilise de l’eau de mer pour son refroidissement. Microsoft communique sur Natick, un projet de datacenter sous-marin, proche des côtes, qui revient sur le modèle du conteneur difficile à maintenir….

Dans la logique d’Open Compute, on voit émerger des modules OpenHardware sur étagère. Le RuggedPOD, par exemple, pourrait être le Rasberry Py ou le Arduino du datacenter. Il s’agit d’un cube de 50 cm de coté, destiné à être posé en extérieur, sur le sol ou sur un toit.

Les datacenters des entreprises utilisatrices

Plusieurs options s’offrent aujourd’hui aux entreprises utilisatrices. Je choisis d’en distinguer 3 :

  • Le datacenter sous forme d’appliance propriétaire, Cloud in a box, ou infrastructure convergée… avec des offres comme celles de Vblock, IBM CloudBurst, Oracle Exalogic, Microsoft Cloud Platform System, etc.
  • Le datacenter bâti sur mesure avec les offres de VMware/EMC, Microsoft, HP, Dell, etc.
  • Le datacenter bâti sur base d’architecture ouverte (Open Compute).

Dans l’écosystème où j’évolue, j’observe peu d’appétence pour les appliances Cloud. Il semble que les DSI préfèrent bâtir leur Cloud privé selon leurs propres plans et architectures, une approche que l’on peut interroger du fait de son coût.

J’observe par contre, un début d’intérêt pour Open Compute. L’approche OpenHardware me semble intéressante pour permettre aux entreprises la construction d’un datacenter sur technologies ouvertes, à moindre coût.

J’ai l’espoir que les géants du Web publient de plus en plus d’éléments de leur architecture en mode Open Source / OpenHardware, ce qui serait très profitable aux entreprises utilisatrices. Ces dernières pourraient utiliser principalement des appliances ressemblant au RuggedPOD.

Rappelons cependant que peu de cas d’usages justifient réellement le recours à un Cloud privé : je pense que dans 90% des cas, les entreprises devraient se tourner vers le Cloud public (lire « Le Cloud privé est-il une escroquerie ?« ).

Par Guillaume Plouin, architecte Cloud, et auteur de “Sécurité, gouvernance du SI hybride et panorama du marché” (4e édition) et de “Tout sur le Cloud Personnel” chez Dunod. Guillaume Plouin anime également un site Web personnel.

A lire aussi, ses précédentes tribunes :

L’émergence du SaaS pour la conception et le design

Pannes de Cloud : mes données sont-elles en sécurité ?

Cloud et PME : anatomie d’un paradoxe

Crédit photo : Google

Recent Posts

Ce qui change avec la version 2024 du référentiel d’écoconception de services numériques

Un an et demi après sa publication initiale, le RGESN est mis à jour. Tour…

2 heures ago

Microsoft x Mistral AI : l’Autorité britannique de la concurrence renonce à enquêter

Le régulateur britannique de la concurrence renonce à une enquête approfondie sur le partenariat de…

4 heures ago

MFA obligatoire sur Azure : ce que prépare Microsoft

À partir de juillet 2024, Microsoft imposera progressivement le MFA pour certains utilisateurs d'Azure. Aperçu…

8 heures ago

Informatique quantique : Pasqal vend un premier ordinateur en Arabie Saoudite

La pépite française de l'informatique quantique Pasqal va installer un ordinateur quantique de 200 qubits…

9 heures ago

Incident « sans précédent » chez Google Cloud : que s’est-il passé ?

Le fonds de pension australien UniSuper a vu son abonnement Google Cloud supprimé - et…

10 heures ago

GPT-4o : où, quand et pour qui ?

OpenAI orchestre un déploiement très progressif de GPT-4o, y compris de ses capacités multimodales.

3 jours ago