Pour gérer vos consentements :
Categories: CloudDatacenters

Un arbitre pour réduire le temps de latence dans les datacenters

Les datacenters font l’objet de toutes les attentions ces dernières années. Réduction de la consommation énergétique, optimisation de l’espace au sol, amélioration des performances sont au programme. Dans ces efforts, on pourra compter sur les travaux des chercheurs du MIT qui annonce la création d’un système de gestion du réseau, nommé Fastpass. Ce dernier a pour vocation de réduire le temps des files d’attente lors de la congestion du réseau dans les datacenters.

Concrètement dans un centre de calcul, chaque fois qu’une personne fait une requête, plusieurs paquets doivent transiter par les routeurs. Quand beaucoup de gens font des demandes, les paquets sont placés dans des files d’attentes pour les traiter. En cas de congestion du réseau, les files d’attentes s’accumulent et la latence augmente. D’où l’idée des chercheurs du MIT de créer le système Fastpass avec un serveur centralisé appelé « arbitre » (cf schéma ci-dessous). A chaque fois qu’un routeur ou un nœud réseau (commutateur ou pont) veut extraire une donnée basée sur une requête, il fait d’abord une demande à l’arbitre qui agit comme un « surveillant » des nœuds et des demandes. L’arbitre disposant d’une base de connaissance sur le réseau, aussi bien sur les allocations de temps de traitement, les algorithmes pour l’assignation des chemins, il déterminera la meilleure route et le temps pour traiter la demande.

Un protocole de communication ad hoc

En intégrant un élément tiers, les chercheurs du MIT ont travaillé sur le protocole de communication et ont proposé d’utiliser le Fastpass Communication Protocol (FCP). Celui-ci transmet les demandes et renvoie les différentes informations citées précédemment, temps alloués et chemin à prendre. Le FCP doit être en mesure de gérer des exigences contradictoires comme consommer une infime fraction de la bande passante du réseau, obtenir une faible latence, gérer la file des paquets et résoudre les problèmes sans interrompre la communication avec les équipements.

Selon nos confrères de GigaOM, les équipes de MIT qui ont travaillé sur Fastpass, l’ont testé dans un datacenter de Facebook. Ils ont pu constater que la durée moyenne des files d’attente pour les routeurs a été réduite de 99,6%. Même en pleine période de pic de trafic, le temps de traitement d’une requête est passé de 3,56 microsecondes à 0,23 microseconde.

Serveur © .shock – Fotolia.com

A lire aussi :

Un consortium pousse le 25 et 50 G Ethernet pour les datacenters

Efficacité énergétique des datacenters : l’indicateur européen DCEM veut enterrer le PUE

Recent Posts

Après la NAND, Intel dit stop à la gamme Optane

Après avoir vendu son activité NAND, Intel tire un trait sur la technologie 3D XPoint,…

3 semaines ago

Google Analytics : la Cnil a posé les règles du jeu

Près de six mois ont passé depuis de que la Cnil a déclaré l'usage de…

3 semaines ago

Truffle 100 France : le top 20 des éditeurs de logiciels

Truffle 100 France : qui sont les 21 entreprises qui ont dépassé, en 2021, les…

3 semaines ago

Cloud : AWS brocarde les politiques de licences Microsoft

Un dirigeant d'Amazon Web Services dénonce des "changements cosmétiques" apportés par Microsoft à ses politiques…

3 semaines ago

Sécurité du code au cloud : Snyk Cloud, un joker pour développeurs

Snyk officialise le lancement de sa solution de sécurité cloud pour développeurs, Snyk Cloud, fruit…

3 semaines ago

Cegid accroche Grupo Primavera à son tableau d’acquisitions

Cegid va absorber Grupo Primavera, plate-forme de logiciels de gestion d'entreprise née dans la péninsule…

3 semaines ago