Pour gérer vos consentements :
Categories: Cloud

AWS en panne : des conséquences à la hauteur des parts de marché

Décembre délicat pour AWS. La branche cloud d’Amazon a subi, ce 22 décembre, une nouvelle panne importante. La troisième en l’espace de quinze jours.

Cette fois-ci, il s’agit d’un problème d’alimentation électrique dans l’un des datacenters de la région US-East-1 (Virginie). Il était environ 13 heures à Paris quand les premiers effets se sont fait ressentir. À la fois sur les instances EC2 et les volumes EBS.

AWS a officialisé l’incident environ une demi-heure plus tard sur la page de statut de ses services. Vers 14 heures, il a annoncé avoir restauré l’alimentation. Tout en reconnaissant que certains éléments ne pourraient pas redémarrer immédiatement. La faute à des dysfonctionnements hardware consécutifs à la coupure électrique.
Il a fallu attendre la fin de soirée pour que la situation rentre globalement dans l’ordre.

Parmi les victimes, il y a eu Slack. Au menu, des problèmes d’envoi et d’édition de messages, de chargement de fils de discussion, d’insertion de fichiers, etc. Périmètre affecté : « moins de 1 % » des utilisateurs », affirme l’éditeur.

Slack touché-coulé ?

Slack avait déjà subi la panne AWS du 7 décembre. Comme, entre autres, Coinbase, Netflix, Tinder… et beaucoup de services Amazon. Parmi eux, la marketplace, Prime Video, Kindle et les caméras Ring. Mais aussi des services internes au groupe, ce qui a perturbé sa logistique – entrepôts et transports.

Cette panne concernait aussi la région US-East-1. Elle a connu deux phases. On avait d’abord constaté, vers 15 h 30 (heure de Paris), une dégradation de performances sur divers services AWS. Dont Athena, Chime, Connect, DynamoDB, Glue et Timestream. Puis, vers 17 heures, étaient survenus des problèmes au niveau des API. On nous avait annoncé la fin de l’incident peu après minuit.

La panne du 15 décembre a touché non pas une, mais deux régions AWS. En l’occurrence, US-West 1 (Caroline du Nord) et US-West 2 (Oregon). Elle a été d’une durée nettement plus courte (moins d’une heure entre les premiers signalements et le rétablissement de l’infrastructure). Comme lors de la panne précédente, des fonctions critiques de type routage et NAT sont tombées. Mais pas seulement sur le réseau interne d’AWS. Slack faisait là aussi partie des victimes.

Photo d’illustration © Destina – Adobe Stock

Recent Posts

Oracle choisit l’expertise Java et SQL pour son « IA qui code »

Le voile est levé sur Oracle Code Assist. Présenté comme spécialisé en Java et SQL,…

24 heures ago

EPEI (Daniel Kretinsky) vise Atos : les axes directeurs de sa proposition

EPEI, la société d'investissement de Daniel Kretinsky, a déposé une offre de reprise d'Atos. En…

1 jour ago

Onepoint veut reprendre Atos : les grandes lignes de son offre

Onepoint, l'actionnaire principal d'Atos, a déposé une offre de reprise du groupe. En voici quelques…

1 jour ago

AWS prend ses distances avec VMware version Broadcom

Broadcom a repris seul la main sur la vente de l'offre VMware d'AWS... qui, dans…

2 jours ago

Avec ZTDNS, Microsoft essuie les plâtres du zero trust appliqué au DNS

Microsoft expérimente, sous la marque ZTDNS, une implémentation des principes zero trust pour le trafic…

2 jours ago

Atos sur la voie d’un sauvetage ? Point de situation

Accord de principe entre créanciers, propositions de reprise, discussions avec l'État... Le point sur le…

2 jours ago