Google entrouvre les secrets de son architecture réseau

A l’occasion d’une conférence, Google fournit quelques détails sur les choix technologiques qui assurent la performance de son réseau de datacenter.

Entre la première génération de datacenter, Firehose il y a 10 ans, et la cinquième aujourd’hui, Jupiter network, Google a multiplié par 100 les capacités réseau de son premier centre de calculs. Ce qui revient à gérer un réseau de 1 Pbit/s de bande passante aujourd’hui. Une capacité qui permet de faire communiquer 100 000 serveurs entre eux à hauteur de 10 Gbit/s chacun. « Suffisant pour lire l’intégralité du contenu numérisés de la Bibliothèque du Congrès en moins de 1/10e de seconde. »

C’est l’une des (rares) informations sur son modèle d’infrastructure interne que Google a concédé à communiquer. Une initiative prise par Amin Vahdat à l’occasion de l’Open Network Summit 2015 qui se terminait le 18 juin. Dans son billet de blog, le responsable technique du réseau chez Google dévoile quelques « trucs » sur la personnalisation de l’infrastructure informatique que Mountain View a mise en œuvre pour pouvoir opérer des services tels que la gestion de fichiers, le modèle de gestion des données en cluster MapReduce, le système de données distribuées Bigtable ou encore le gestionnaire de cluster Borg. Une personnalisation hardware et software du réseau de datacenter que la firme met aujourd’hui à disposition des développeurs à travers sa Google Cloud Platform.

Du SDN depuis 10 ans

Pour atteindre les performances affichées plus haut, Amin Vahdat indique que les équipes ont conçu le réseau autour de trois points clés : une topologie à plusieurs étages (Clos topology) où des « petits » (moins chers) commutateurs sont arrangés de manière à obtenir les mêmes qualités qu’un grand switch logique; un contrôleur logiciel centralisé pour gérer ces milliers de switches afin de les opérer comme une grande fabric; et enfin, et surtout, l’usage de protocoles propriétaires taillés pour le datacenter plus que pour l’Internet (IP) à partir de plateforme hardware (silicium) standards. « Pris ensemble, notre pile de contrôle de réseau a plus en commun avec les architectures de calcul distribué de Google que les protocoles Internet traditionnels centrés routeur », résume l’ingénieur en chef.

Une façon de dire que Google fait du SDN (Software Defined Networks) depuis 10 ans et qu’il a eu l’occasion de mettre ses développements en pratique sur son datacenter WAN mondial B4 ou à travers son contrôleur réseau Andromeda dévoilé en avril 2014. Amin Vahdat ne fournit pas plus d’informations sur la façon dont Google construit ses datacenters. Un choix discrétionnaire à l’inverse de la stratégie d’ouverture de Facebook qui n’hésite pas à détailler les ficelles de son datacenter fabric.


Lire également
Mesosphere embarque Kubernetes dans son OS pour datacenter
Cloud : Alibaba défie AWS, Google et Microsoft aux Etats-Unis
Google I/O : Cloud, Pulse.io et Polymer 1.0 pour booster les apps