Pour gérer vos consentements :
Categories: CloudDatacenters

Un arbitre pour réduire le temps de latence dans les datacenters

Les datacenters font l’objet de toutes les attentions ces dernières années. Réduction de la consommation énergétique, optimisation de l’espace au sol, amélioration des performances sont au programme. Dans ces efforts, on pourra compter sur les travaux des chercheurs du MIT qui annonce la création d’un système de gestion du réseau, nommé Fastpass. Ce dernier a pour vocation de réduire le temps des files d’attente lors de la congestion du réseau dans les datacenters.

Concrètement dans un centre de calcul, chaque fois qu’une personne fait une requête, plusieurs paquets doivent transiter par les routeurs. Quand beaucoup de gens font des demandes, les paquets sont placés dans des files d’attentes pour les traiter. En cas de congestion du réseau, les files d’attentes s’accumulent et la latence augmente. D’où l’idée des chercheurs du MIT de créer le système Fastpass avec un serveur centralisé appelé « arbitre » (cf schéma ci-dessous). A chaque fois qu’un routeur ou un nœud réseau (commutateur ou pont) veut extraire une donnée basée sur une requête, il fait d’abord une demande à l’arbitre qui agit comme un « surveillant » des nœuds et des demandes. L’arbitre disposant d’une base de connaissance sur le réseau, aussi bien sur les allocations de temps de traitement, les algorithmes pour l’assignation des chemins, il déterminera la meilleure route et le temps pour traiter la demande.

Un protocole de communication ad hoc

En intégrant un élément tiers, les chercheurs du MIT ont travaillé sur le protocole de communication et ont proposé d’utiliser le Fastpass Communication Protocol (FCP). Celui-ci transmet les demandes et renvoie les différentes informations citées précédemment, temps alloués et chemin à prendre. Le FCP doit être en mesure de gérer des exigences contradictoires comme consommer une infime fraction de la bande passante du réseau, obtenir une faible latence, gérer la file des paquets et résoudre les problèmes sans interrompre la communication avec les équipements.

Selon nos confrères de GigaOM, les équipes de MIT qui ont travaillé sur Fastpass, l’ont testé dans un datacenter de Facebook. Ils ont pu constater que la durée moyenne des files d’attente pour les routeurs a été réduite de 99,6%. Même en pleine période de pic de trafic, le temps de traitement d’une requête est passé de 3,56 microsecondes à 0,23 microseconde.

Serveur © .shock – Fotolia.com

A lire aussi :

Un consortium pousse le 25 et 50 G Ethernet pour les datacenters

Efficacité énergétique des datacenters : l’indicateur européen DCEM veut enterrer le PUE

Recent Posts

AWS prend ses distances avec VMware version Broadcom

Broadcom a repris seul la main sur la vente de l'offre VMware d'AWS... qui, dans…

7 heures ago

Avec ZTDNS, Microsoft essuie les plâtres du zero trust appliqué au DNS

Microsoft expérimente, sous la marque ZTDNS, une implémentation des principes zero trust pour le trafic…

9 heures ago

Atos sur la voie d’un sauvetage ? Point de situation

Accord de principe entre créanciers, propositions de reprise, discussions avec l'État... Le point sur le…

12 heures ago

AWS abandonne WorkDocs, son concurrent de Dropbox

Un temps pressenti pour constituer le socle d'une suite bureautique AWS, Amazon WorkDocs arrivera en…

3 jours ago

Eviden structure une marque de « serveurs IA »

Eviden regroupe cinq familles de serveurs sous la marque BullSequana AI. Et affiche le supercalculateur…

3 jours ago

SSE : l’expérience se simplifie plus que les prix

Le dernier Magic Quadrant du SSE (Secure Service Edge) dénote des tarifications et des modèles…

3 jours ago