Pannes de Cloud : mes données sont-elles en sécurité ? (tribune)

Les pannes dans le Cloud sont très médiatisées. Mais présentent-elles réellement un risque pour l’intégrité des données qui y sont stockées ? Guillaume Plouin, architecte Cloud et auteur de plusieurs ouvrages sur le sujet, tord le cou à quelques idées reçues.

Cette tribune fait suite à la récente panne du Cloud de Google, en Belgique. Son propos est de faire un état de lieux des risques de perte de données dans le Cloud. On parle ici de sécurité sur le plan technique : disponibilité, intégrité des données. Il ne sera pas question de la NSA.

Les garanties offertes par le Cloud

Pour mesurer les garanties offertes par le Cloud, il me semble intéressant d’introduire la notion de  “Tier 4”. La TIA (Telecommunications Industry Association) propose un modèle normalisé pour qualifier les grands datacenters : les Tier 1, 2, 3, 4.

Le Tier 4 garantit 99,995 % de disponibilité (0,8 heure d’indisponibilité/an). Il est totalement redondant, tolérant à la panne. Il dispose d’une alimentation en énergie en mode actif/actif.

Les grands acteurs du Cloud utilisent des datacenters de Tier 4 reposant sur des containers (avec deux à trois mille serveurs par container). En fait, ce sont eux qui font l’état de l’art des datacenters aujourd’hui. Ils sont théoriquement à même d’offrir le plus haut niveau de résilience du marché.

De plus, pour rassurer les clients dubitatifs, ils subissent des audits indépendants, et passent des certifications :

  • ISO 27001 : la norme de référence de l’ISO en matière de sécurité ;
  • SSAE 16 type II et ISAE 3402 Type II (successeurs de SAS  70) : ces certifications garantissent la conformité en matière de protection des données, la mise en œuvre de contrôles d’accès efficaces dans les datacenters et la mise en œuvre de politiques de sauvegarde efficaces. Elles sont validées par un audit tous les six mois.

Enfin, les acteurs du Cloud pratiquent le “Design for failure”: les plateformes Cloud intégrant une grande quantité de serveurs considèrent comme inévitable, voire normal, que des composants serveurs tombent en panne régulièrement. Les plateformes sont donc conçues pour ne pas souffrir de ces pannes : ce sont leurs logiciels d’infrastructure qui les gèrent. Les données sont répliquées sur plusieurs disques et lorsque l’un d’entre eux flanche, elles sont automatiquement recopiées sur un autre disque opérationnel.

Les pannes du Cloud et leurs causes

Amazon Web Services (AWS) a connu des ruptures de services pendant l’été 2012. Elles ont été provoquées par de violentes tempêtes en Virginie du Nord. Le service EC2 (le service de compute) a été indisponible pendant plusieurs heures, mais il n’y a pas eu de perte de données. Parmi les sites touchés, on compte quand même Reddit, Foursquare, Pinterest, GitHub, Airbnb, le PaaS Heroku… En septembre 2015, un dysfonctionnement de DynamoDB, une saturation liée à une sorte de boucle infinie, a impacté les mêmes clients sans perte de données. Il faut noter qu’à chaque fois, Netflix n’a pas été affecté car son architecture repose sur plusieurs régions AWS.

Microsoft Azure a connu une panne fameuse en 2012, liée à une erreur d’horloge : la plateforme a essayé en vain de générer des certificats pour le 29 février 2013. Manque de chance, 2013 n’était pas une année bissextile. La plateforme a été indisponible pendant des heures sans perte de données. Azure a connu des pannes en 2014 causées par le déploiement de mises à jour. La mise à jour est partie en boucle infinie créant une rupture de service. Il n’y a pas eu de perte de données.

En 2015, le datacenter belge de Google, à Saint Ghislain, a été frappé par la foudre, qui a grillé des serveurs. Certaines réplications de données (cf. “design for failure”) n’ont pas eu le temps de s’effectuer. Il y a eu des pertes de données sur  0,000001 % de l’espace de ces serveurs.

En conclusion de ce bref historique, on peut dire qu’il y a deux grandes causes de pannes dans le Cloud : des phénomènes naturels extrêmes et des processus automatiques qui partent en boucle infinie.

Un usage prudent

Les acteurs du Cloud sont sous les feux de la rampe. A contrario, les incidents qui surviennent dans les entreprises ne sont pas publics. Il est donc difficile de faire des statistiques sur la fréquence des problèmes qu’elles rencontrent. Connaissent-elles moins de pannes ? Impossible à dire.

Sur la base de mon expérience personnelle d’utilisateur du Cloud depuis 2008, j’ai toutefois la conviction que le Cloud offre la meilleure résilience sur les données, ce qui ne m’empêche pas de faire des sauvegardes sur deux Cloud distincts pour mes données les plus critiques, en vérifiant bien que ces services ne reposent pas tous deux sur AWS…

Guillaume Plouin, architecte Cloud, est l’auteur de “Cloud Computing, Sécurité, stratégie d’entreprise et panorama du marché” et “Tout sur le Cloud Personnel” chez Dunod.

A lire aussi :

Cloud et PME : anatomie d’un paradoxe (tribune)

Le Cloud signe la fin des éditeurs de middleware (tribune)

Le Cloud privé est-il une escroquerie ? (tribune)

Crédit photo : Aila Images / Shutterstock