Pour gérer vos consentements :
Categories: CloudDatacenters

Un arbitre pour réduire le temps de latence dans les datacenters

Les datacenters font l’objet de toutes les attentions ces dernières années. Réduction de la consommation énergétique, optimisation de l’espace au sol, amélioration des performances sont au programme. Dans ces efforts, on pourra compter sur les travaux des chercheurs du MIT qui annonce la création d’un système de gestion du réseau, nommé Fastpass. Ce dernier a pour vocation de réduire le temps des files d’attente lors de la congestion du réseau dans les datacenters.

Concrètement dans un centre de calcul, chaque fois qu’une personne fait une requête, plusieurs paquets doivent transiter par les routeurs. Quand beaucoup de gens font des demandes, les paquets sont placés dans des files d’attentes pour les traiter. En cas de congestion du réseau, les files d’attentes s’accumulent et la latence augmente. D’où l’idée des chercheurs du MIT de créer le système Fastpass avec un serveur centralisé appelé « arbitre » (cf schéma ci-dessous). A chaque fois qu’un routeur ou un nœud réseau (commutateur ou pont) veut extraire une donnée basée sur une requête, il fait d’abord une demande à l’arbitre qui agit comme un « surveillant » des nœuds et des demandes. L’arbitre disposant d’une base de connaissance sur le réseau, aussi bien sur les allocations de temps de traitement, les algorithmes pour l’assignation des chemins, il déterminera la meilleure route et le temps pour traiter la demande.

Un protocole de communication ad hoc

En intégrant un élément tiers, les chercheurs du MIT ont travaillé sur le protocole de communication et ont proposé d’utiliser le Fastpass Communication Protocol (FCP). Celui-ci transmet les demandes et renvoie les différentes informations citées précédemment, temps alloués et chemin à prendre. Le FCP doit être en mesure de gérer des exigences contradictoires comme consommer une infime fraction de la bande passante du réseau, obtenir une faible latence, gérer la file des paquets et résoudre les problèmes sans interrompre la communication avec les équipements.

Selon nos confrères de GigaOM, les équipes de MIT qui ont travaillé sur Fastpass, l’ont testé dans un datacenter de Facebook. Ils ont pu constater que la durée moyenne des files d’attente pour les routeurs a été réduite de 99,6%. Même en pleine période de pic de trafic, le temps de traitement d’une requête est passé de 3,56 microsecondes à 0,23 microseconde.

Serveur © .shock – Fotolia.com

A lire aussi :

Un consortium pousse le 25 et 50 G Ethernet pour les datacenters

Efficacité énergétique des datacenters : l’indicateur européen DCEM veut enterrer le PUE

Recent Posts

APT44, bras armé cyber de la Russie

Mandiant a attribué un APT à Sandworm, considéré comme le principal groupe cybercriminel à la…

9 heures ago

Cybersécurité : HarfangLab et Filigran connectent EDR et CTI

Les deux startup proposent un connecteur entre la platefome OpenCTI de Filigran et l’EDR de…

11 heures ago

Le hacking autonome, capacité émergente de GPT-4 ?

Des chercheurs ont mis des agents LLM à l'épreuve dans la détection et l'exploitation de…

12 heures ago

Les applications de messagerie se mettent au chiffrement post-quantique

Dans la lignée de Signal, iMessage intègre une couche de chiffrement post-quantique.

15 heures ago

Infrastructures LAN : une photo du marché avant la fusion HPE-Juniper

Douze fournisseurs sont classés dans le dernier Magic Quadrant des infrastructures LAN.

1 jour ago

Sauvegarde et restauration : Commvault muscle son offre cloud avec Appranix

Commvault s'offre Appranix, éditeur d'une plateforme cloud de protection et de restauration des applications.

2 jours ago