Pour gérer vos consentements :
Categories: Cloud

AWS en panne : des conséquences à la hauteur des parts de marché

Décembre délicat pour AWS. La branche cloud d’Amazon a subi, ce 22 décembre, une nouvelle panne importante. La troisième en l’espace de quinze jours.

Cette fois-ci, il s’agit d’un problème d’alimentation électrique dans l’un des datacenters de la région US-East-1 (Virginie). Il était environ 13 heures à Paris quand les premiers effets se sont fait ressentir. À la fois sur les instances EC2 et les volumes EBS.

AWS a officialisé l’incident environ une demi-heure plus tard sur la page de statut de ses services. Vers 14 heures, il a annoncé avoir restauré l’alimentation. Tout en reconnaissant que certains éléments ne pourraient pas redémarrer immédiatement. La faute à des dysfonctionnements hardware consécutifs à la coupure électrique.
Il a fallu attendre la fin de soirée pour que la situation rentre globalement dans l’ordre.

Parmi les victimes, il y a eu Slack. Au menu, des problèmes d’envoi et d’édition de messages, de chargement de fils de discussion, d’insertion de fichiers, etc. Périmètre affecté : « moins de 1 % » des utilisateurs », affirme l’éditeur.

Slack touché-coulé ?

Slack avait déjà subi la panne AWS du 7 décembre. Comme, entre autres, Coinbase, Netflix, Tinder… et beaucoup de services Amazon. Parmi eux, la marketplace, Prime Video, Kindle et les caméras Ring. Mais aussi des services internes au groupe, ce qui a perturbé sa logistique – entrepôts et transports.

Cette panne concernait aussi la région US-East-1. Elle a connu deux phases. On avait d’abord constaté, vers 15 h 30 (heure de Paris), une dégradation de performances sur divers services AWS. Dont Athena, Chime, Connect, DynamoDB, Glue et Timestream. Puis, vers 17 heures, étaient survenus des problèmes au niveau des API. On nous avait annoncé la fin de l’incident peu après minuit.

La panne du 15 décembre a touché non pas une, mais deux régions AWS. En l’occurrence, US-West 1 (Caroline du Nord) et US-West 2 (Oregon). Elle a été d’une durée nettement plus courte (moins d’une heure entre les premiers signalements et le rétablissement de l’infrastructure). Comme lors de la panne précédente, des fonctions critiques de type routage et NAT sont tombées. Mais pas seulement sur le réseau interne d’AWS. Slack faisait là aussi partie des victimes.

Photo d’illustration © Destina – Adobe Stock

Recent Posts

GenAI : le Royaume-Uni poursuit ses investigations sur les partenariats de Microsoft et Amazon

L'Autorité de la concurrence et des marchés (CMA) a lancé la phase de recherche de…

22 minutes ago

Clients de VMware : les raisons de la colère

Broadcom remplace pas moins de 168 logiciels VMware par deux grandes licences de location correspondant…

1 heure ago

Laurent Carlier – BNP Paribas Global Market : « L’IA permet de modéliser des relations plus complexes, mais il faut rester prudent »

La banque d’investissement de BNP Paribas utilise l'IA pour proposer des stratégies d’investissement individualisées, en…

2 heures ago

Open Compute Project : les datacenters partagent des bonnes pratiques pour l’environnement

OVHCloud partage ses efforts environnementaux au sommet de l’Open Compute Project qui se tient à…

22 heures ago

Phi-3-mini : Microsoft lance son premier SLM

Avec Phi-3-mini, Microsoft lance un SLM conçu pour attirer une clientèle disposant de ressources financières…

23 heures ago

Apple : l’UE serait prête à approuver son plan pour ouvrir l’accès NFC

La Commission européenne serait sur le point d'approuver la proposition d'Apple visant à fournir à…

1 jour ago