Pourquoi l’entreprise doit maîtriser son architecture multi-cloud ?

Cloud

« Un grand pouvoir implique de grandes responsabilités » – la célèbre phrase prononcée par Voltaire s’applique aujourd’hui sans peine à tous les grands fournisseurs de cloud : Amazon, Google, IBM ou encore Microsoft pour ne citer qu’eux, ont tous investi dans des data centers importants, situés à proximité des plus grands centres d’affaires mondiaux.

Tout ça bien sûr, dans le but de proposer à leurs clients des services à la pointe de la technologie. Une responsabilité conséquente puisqu’en cas de défaillance, c’est le quotidien de centaines de milliers d’entreprises et d’utilisateurs qui se retrouve perturbé.

Heureusement, de tels incidents se produisent très rarement, voire jamais. En effet, les études menées sur les risques à l’image de « Cloud Down » en 2018, répertorient un total de huit défaillances seulement, sur une période allant de février 2012 à février 2017. Ces résultats sont révélateurs de la qualité des prestations de services de ces acteurs, qui font face, chaque année à un accroissement conséquent des données et qui sont souvent la cible privilégiée des pirates informatiques. Mais dans quelle mesure l’entreprise est-elle responsable de la sécurisation des données ? Quelles sont les mesures à adapter en cas de faille dans un environnement multi-cloud ?

Les fausses idées de la gestion des données dans le cloud

La qualité des services des fournisseurs de cloud représente à la fois une bénédiction et une malédiction pour l’entreprise : à l’heure actuelle, elles ne jurent que par le cloud concernant le déploiement des applications et la gestion des charges de travail. 75% d’entre elles s’appuient sur un seul fournisseur de cloud et près de 16% affirment s’appuyer ou comptent s’appuyer sur cinq fournisseurs de cloud, voire plus[1].

En ce qui concerne la protection des données, les fournisseurs de cloud prennent bien soin de préciser qu’ils appliquent un modèle de « responsabilité partagée » entre eux et l’entreprise concernée. De manière générale, plus le service est complexe, plus le fournisseur de services est impliqué, mais quoiqu’il arrive, l’entreprise reste toujours garante de ses données et de leur conformité. En cas de fuites de données ou de pannes, c’est elle qui sera tenue comme unique responsable.

Malheureusement, ce modèle de responsabilité partagée est encore trop peu ancré dans l’esprit des responsables informatiques des entreprises. D’autres résultats de l’étude menée par Veritas montrent que 83% des entreprises qui utilisent ou planifient d’utiliser l’IaaS considèrent que leur fournisseur de service cloud veille bien à la protection de leurs données dans le cloud. 69% des sondés considèrent qu’ils peuvent accorder la pleine responsabilité pour la protection des données et pour le respect de la vie privée aux fournisseurs de service cloud.

La dépendance à l’égard des processus manuels

Ces fausses idées augmentent le risque que les responsables informatiques sous-estiment l’impact d’une défaillance du cloud sur leurs applications sensibles. En effet, les fournisseurs de services cloud sont soumis à des exigences strictes en matière de niveau de service, mais celles-ci ne s’appliquent généralement qu’à l’infrastructure : ces derniers ne sont responsables de la mise en service de leur infrastructure seulement en cas de panne dans le cloud. Dès que le cloud est de nouveau opérationnel, les applications doivent, elles, également être remises en service – et c’est là que le rôle des entreprises entre en jeu.

De plus, plus les applications sont structurées de façon complexe, plus les données risquent d’être perdues pendant la panne et leur récupération longue. La raison : les services informatiques utilisent des outils isolés et des processus manuels pour surveiller leur groupe d’infrastructures. Les paramètres clés dans lesquels le basculement est fixé en cas d’urgence ne sont pas attribués à une autorité globale, mais dispersés dans plusieurs entités, des hyperviseurs tels que Hyper V, VMware ou OpenStack. Ainsi, en cas de sinistre, il existe différents moyens de reprise, en fonction des applications, mais aucun moyen d’obtenir une vue d’ensemble de « l’état de santé » global des applications sensibles.
Pour les transitions d’un domaine de responsabilité à un autre, les entreprises s’en remettent aux processus manuels mentionnés, qui sont lents, sujets aux erreurs et coûteux. A ce sujet, l’Enterprise Strategy Group a récemment dévoilé que 51% des entreprises autorisent moins d’une heure de temps d’arrêt, avec seulement 22% d’entre elles qui atteignent un taux de réussite de 90% dans leurs propres tests de récupération.

Des tests essentiels sans perturber le fonctionnement global

Ainsi, il est primordial que l’entreprise maîtrise son architecture à plusieurs niveaux et sa disponibilité dans un environnement multi-cloud, par l’intermédiaire de solutions qui prennent en main les charges de travail des applications, peu importe où elles se trouvent. Ces applications doivent interagir étroitement avec les principaux fournisseurs de cloud, utiliser leurs moteurs de données ou être certifiés en conséquence afin que les données et les charges de travail soient transférées directement dans les environnements cloud respectifs.

De cette manière, chaque élément de l’architecture de l’application, de la base de données à l’application Web et des machines virtuelles au stockage, est identifié. Il est également essentiel que le concept de continuité des opérations puisse « tester » l’ensemble du processus de reprise après sinistre sans perturber les opérations. Cela permet aux responsables informatiques de définir exactement le temps dont ils ont besoin pour restaurer des applications métier importantes. Les résultats obtenus doivent être répertoriés dans un tableau de bord central afin que les responsables puissent voir, en un coup d’œil, si toutes les applications de l’entreprise répondent aux exigences.

Aujourd’hui, il est indispensable que les responsables informatiques comprennent les rouages d’une panne cloud et gardent à l’esprit que la reprise après défaillance ne peut être gérée que conjointement par les fournisseurs de services cloud et les entreprises. Si ces dernières mettent en place à l’avance des mécanismes de défaillance appropriés pour leurs applications via le multi-cloud, elles auront non seulement l’entière responsabilité mais aussi le contrôle total sur la récupération de leurs services sensibles en cas d’urgence. Ce droit réduit considérablement les temps d’arrêt, les dommages financiers, mais aussi le risque de perte de confiance des clients de l’entreprise.

[1] Source : étude Truth in Cloud, Veritas Technologies

Crédit Photo : Jozsef Bagota-Shutterstock

Auteur
VP Southern Europe
Veritas Technologies
Jean-Pierre Boushira : A la tête de la France et de l’Europe du Sud, il supervise les projets de développement commercial en permettant aux clients de faire face à la complexité des environnements multi- cloud et d’exploiter la puissance de leurs données en s’appuyant sur la stratégie de gestion des données multiclouds à 360° de Veritas.
En savoir plus 

Livres blancs A la Une