Un arbitre pour réduire le temps de latence dans les datacenters

CloudDatacenters
Serveurs ARM : bientôt la révolution !

Les chercheurs du MIT viennent de créer un système de gestion de réseau baptisé Fastpass, qui diminue les temps de latence lors de la congestion du réseau.

Les datacenters font l’objet de toutes les attentions ces dernières années. Réduction de la consommation énergétique, optimisation de l’espace au sol, amélioration des performances sont au programme. Dans ces efforts, on pourra compter sur les travaux des chercheurs du MIT qui annonce la création d’un système de gestion du réseau, nommé Fastpass. Ce dernier a pour vocation de réduire le temps des files d’attente lors de la congestion du réseau dans les datacenters.

Concrètement dans un centre de calcul, chaque fois qu’une personne fait une requête, plusieurs paquets doivent transiter par les routeurs. Quand beaucoup de gens font des demandes, les paquets sont placés dans des files d’attentes pour les traiter. En cas de congestion du réseau, les files d’attentes s’accumulent et la latence augmente. D’où l’idée des chercheurs du MIT de créer le système Fastpass avec un serveur centralisé appelé « arbitre » (cf schéma ci-dessous). A chaque fois qu’un routeur ou un nœud réseau (commutateur ou pont) veut extraire une donnée basée sur une requête, il fait d’abord une demande à l’arbitre qui agit comme un « surveillant » des nœuds et des demandes. L’arbitre disposant d’une base de connaissance sur le réseau, aussi bien sur les allocations de temps de traitement, les algorithmes pour l’assignation des chemins, il déterminera la meilleure route et le temps pour traiter la demande.

Fastpass

Un protocole de communication ad hoc

En intégrant un élément tiers, les chercheurs du MIT ont travaillé sur le protocole de communication et ont proposé d’utiliser le Fastpass Communication Protocol (FCP). Celui-ci transmet les demandes et renvoie les différentes informations citées précédemment, temps alloués et chemin à prendre. Le FCP doit être en mesure de gérer des exigences contradictoires comme consommer une infime fraction de la bande passante du réseau, obtenir une faible latence, gérer la file des paquets et résoudre les problèmes sans interrompre la communication avec les équipements.

Selon nos confrères de GigaOM, les équipes de MIT qui ont travaillé sur Fastpass, l’ont testé dans un datacenter de Facebook. Ils ont pu constater que la durée moyenne des files d’attente pour les routeurs a été réduite de 99,6%. Même en pleine période de pic de trafic, le temps de traitement d’une requête est passé de 3,56 microsecondes à 0,23 microseconde.

Serveur © .shock – Fotolia.com

A lire aussi :

Un consortium pousse le 25 et 50 G Ethernet pour les datacenters

Efficacité énergétique des datacenters : l’indicateur européen DCEM veut enterrer le PUE


Lire la biographie de l´auteur  Masquer la biographie de l´auteur