Multi-cloud : c’est aux données et non aux applications de piloter la stratégie

Bases de donnéesBig DataCloudData & Stockage

Il n’y a plus de doute quant au rôle stratégique que les données jouent au sein des entreprises dans les projets portés par l’innovation. L’intelligence artificielle, l’apprentissage automatique et l’analytique sont passés rapidement de tendances technologiques à une réalité concrète présente dans notre quotidien.

Cependant le flot de données et leur diversité continue à nous submerger. Les données transactionnelles, les appareils IoT et les capteurs, la vidéo et l’audio sont autant de sources générant des quantités de données toujours plus vastes. Le trafic internet global est désormais mesuré en zettabytes et le déluge ne fait qu’augmenter rapidement.

Selon une étude réalisée par le MIT Technology Review, la grande majorité des chefs d’entreprise affirment que les données sont non seulement à l’origine de projets stratégiques pour l’avenir de leur entreprise, pour une meilleure expérience client, et une croissance soutenue. Toutefois, ces dirigeants reconnaissent également leur difficulté à comprendre, analyser et interpréter ces données. Cette gestion présente des coûts élevés.

Si, dans le passé, les applications dictaient les choix de l’infrastructure, aujourd’hui, à l’heure de la croissance exponentielle des données, leur exploitation doit s’appuyer sur une meilleure accessibilité et mobilité. Les entreprises doivent être capables d’accéder en temps réel à toutes les données afin d’en tirer le meilleur parti dans un environnement multi-cloud. Ainsi, les applications peuvent être déplacées librement entre le stockage sur site et le cloud privé ou public. La bonne stratégie étant à la fois « sur site » et dans le Cloud, et non plus soit l’un soit l’autre.

Pourquoi c’est important ? D’après une enquête d’IDG, 90% des entreprises auront une portion de leurs applications ou de leurs infrastructures dans le Cloud cette année. Cette migration effectuée tout au long de ces dernières années leur a appris qu’il était fondamental de veiller à l’efficacité de ces initiatives ainsi qu’aux coûts engendrés. Déverrouiller l’accès aux données requiert souvent une approche différente pour être efficace.

En fin de compte, le choix des environnements appropriés doit être pris en fonction du type de données et des applications utilisées. Par exemple, les applications critiques qui fonctionnent de manière régulière d’un jour à l’autre, sans variations d’activité, sont davantage adaptées à un hébergement sur site qui est plus rentable que le cloud.

En revanche les charges de travail qui varient fréquemment – et qui nécessitent des calculs intenses – sont davantage adaptées au cloud public. Cela permet aux entreprises de bénéficier du fonctionnement du cloud et de ne payer que pour le temps où les applications sont réellement utilisées.

Pour inciter les dirigeants d’entreprise à appuyer leur prise de décision stratégique sur les données plutôt que sur les applications, il est utile de repenser le concept classique de hiérarchisation des applications.

Une évolution de la hiérarchisation

Aujourd’hui, la majorité des entreprises génèrent des charges de travail très variables. Le concept de hiérarchisation a évolué avec l’avènement du stockage 100% flash. L’idée que les applications critiques de niveau 1 sont faites pour le stockage haute performance et que les applications de niveau 2 sont adaptées au stockage de moyenne performance, sans parler des applications de niveau 3, est désormais révolu. Le stockage flash a démocratisé le datacenter et les entreprises réalisent désormais que toutes leurs données ont de la valeur, qu’il n’existe plus vraiment de « données froides ».

Comme les données occupent désormais une place centrale, la mobilité des applications, c’est-à-dire la capacité à déplacer de façon transparente des applications du cloud vers un environnement sur site ou vice versa, en fonction des besoins dictés par les données, est devenue essentiel.

Pour que les données soient mobiles dans le cloud public et privé, il faut une couche commune pour partager les données. Une base de données Oracle peut par exemple s’exécuter sur un stockage de niveau 1, mais les données qui en sont issues peuvent être exploitées à partir de différents endroits de l’entreprise selon le cas d’usage.

Et parce que les données sont un élément vital pour l’entreprise, le fonctionnement doit être continu, résilient et nécessite une plateforme de stockage performante sur site. Pour autant, les rapports d’analyse périodiques et les rapports mensuels sont de bons candidats pour le cloud.
En effet, l’agilité du cloud permet d’effectuer rapidement les calculs sur un laps de temps donné. Si vous avez besoin du rapport plus rapidement, il suffit d’augmenter la puissance de calcul. La mobilité des données et l’agilité des applications s’améliorent grâce à la couche de données commune.

Le modèle qui repose sur des traitements où les données sont centrales sert de passerelle dans un monde multi-cloud

Aujourd’hui, un fossé persiste entre les environnements hébergés sur site et dans le cloud public, avec une diversité d’expériences de gestion et de consommation, d’architectures d’applications et de stockage.

Les entreprises sont plus compétitives avec un modèle où les données sont centrales, car le déploiement de l’ensemble des services informatiques est facilité grâce à l’accès en temps réel aux données, nécessaire pour accéder à plus d’information et accélérer la prise de décision. Le cloud hybride exige une architecture centrée sur les données, conçue pour partager les données en temps réel et faciliter leur déplacement ainsi que celui des applications.

En reprenant l’exemple cité plus haut de l’instance de base de données OLTP Oracle s’exécutant sur site, la capacité des entreprises à envoyer des copies de données vers le cloud public leur offre une capacité d’évolution importante avec une architecture de calcul agile. Grâce à la couche commune de données, la même architecture centrée sur les données est utilisée sur site et étendue au cloud public.

Enfin, les déploiements natifs d’applications cloud peuvent être améliorés grâce aux services de données qui font gagner en efficacité grâce à des fonctionnalités de réduction des données, de copies instantanées et de réplication. Ainsi, les données devraient même être à l’origine du choix de la stratégie de reprise après sinistre. Dans un monde multi-cloud, le caractère central des données permet d’exploiter le cloud comme un second datacenter.
Dans le cas d’un environnement sur site, l’accélération des sauvegardes dans le Cloud rend la restauration moins pénible.

C’est ainsi qu’on réussit à libérer les applications, unifier le cloud, et gérer les données de façon homogène depuis le datacenter et le cloud.


Auteur
En savoir plus 
Directeur technique
Pure Storage France
Directeur technique chez Pure Storage France depuis 2014, est spécialiste des technologies innovantes et de leur introduction sur le marché français depuis 20 ans. Auparavant, il a occupé les postes d’ingénieur technique chez Violin Systems et EMC. Il est expert des questions de stockage flash, de transformation digitale et des questionnements soulevés par ces évolutions profondes du secteur.
En savoir plus 

Livres blancs A la Une