Pour gérer vos consentements :
Categories: Big DataCloud

Avis d’expert – Les 4 exigences de la révolution Big Data dans le Cloud

Depuis quelques années, la question du Cloud occupe les gros titres en ne laissant que peu d’espace pour les autres tendances IT. Mais récemment, le « Big Data » a supplanté le Cloud dans les discussions et mobilise plus encore l’attention des professionnels. Une chose est sûre, maintenant que l’on connaît mieux les capacités et le potentiel du Big Data : celui-ci n’aurait jamais pu exister sans le Cloud, et à cause de lui, le Cloud ne sera plus jamais pareil. Nous autres, fournisseurs et utilisateurs des technologies Cloud, nous devons nous interroger sur les changements à venir pour l’industrie. Sommes-nous prêts à gérer la déferlante du Big Data ? Est-ce que tous les fournisseurs Cloud pourront assumer les nouvelles demandes générées ?

Karine Calvet, directrice générale de Verizon France

Si le Big Data apparaît compliqué de prime abord, un large pourcentage de la population s’expose à son utilisation chaque jour sans s’en rendre forcément compte. Par exemple, grâce au Big Data, les grands moteurs de recherche suggèrent des mots dans leur barre de recherche avant même que l’utilisateur ait fini de taper un terme. Comment est-ce possible ? C’est effectivement une opération complexe, mais pour faire simple, disons que les moteurs de recherche stockent de grandes quantités de termes de recherche, qu’ils trient et classent pour pouvoir suggérer aux internautes les mots les plus populaires et pertinents.

La nature perturbatrice du Big Data

Dans le contexte du Cloud, la nature complexe et perturbatrice du Big Data prend tout son sens. Cette nature perturbatrice est liée aux différents facteurs qui entrent en jeu pour parvenir à exploiter ces énormes volumes de données, mais aussi pour les sollicitations supplémentaires auxquelles les fournisseurs de services Cloud doivent faire face. Par exemple :

  1. Toutes les données doivent être stockées au même endroit : en effet, il faut pouvoir analyser et traiter les données au même endroit, sans quoi les déplacements de données entre différents lieux prolongeraient considérablement les délais d’analyse. Les fournisseurs de Cloud doivent donc avoir au moins un datacenter pouvant stocker toutes les données. Est-ce que c’est le cas de tous les fournisseurs Cloud ?
  2. La fiabilité du réseau compte : pour pouvoir analyser avec efficacité de grandes quantités de données, les fournisseurs de Cloud doivent pouvoir offrir un réseau ultra-fiable et puissant, sans quoi on risque bien d’attendre le résultat d’une analyse pourtant censée être instantanée. Est-ce que tous les fournisseurs peuvent offrir un réseau aussi puissant ?
  3. Le strict respect des accords de niveau de service (SLA) : en cours d’analyse, une défaillance de machine virtuelle (VM) suffit à interrompre l’opération et le client devra réexécuter toute sa requête. Autrement dit, avec le Big Data, les accords de niveau de service cessent d’être une simple préférence pour devenir obligatoires. Est-ce que tous les fournisseurs Cloud satisfont à cette exigence ?
  4. Configuration sur mesure, au cas par cas : puisque la stabilité, la puissance du réseau et la capacité de stockage prennent de l’importance avec le Big Data, les niveaux de performance et de qualité de service doivent pouvoir être configurés pour chaque client. Est-ce que tous les fournisseurs peuvent honorer cette exigence, et surtout l’accepteront-ils ?

Satisfaire toutes les exigences

Il est clair que la qualité de service du réseau, les accords de niveau de service portant sur la performance et la disponibilité, ainsi que les API sont des aspects critiques pour le bon fonctionnement des outils d’analyse du Big Data. Pour cette raison, tout fournisseur Cloud doit satisfaire chacune de ces exigences afin de pouvoir exécuter correctement les analyses et prétendre fournir des services autour du Big Data.

Or, la majorité des fournisseurs Cloud ne sont pas prêts. En conséquence et dans le contexte de la future croissance exponentielle des services autour du Big Data, on assistera probablement à la consolidation de l’industrie, qui va se resserrer autour d’une poignée de fournisseurs qui poursuivront leur développement, tandis que les autres se spécialiseront sur des niches et résoudront les problèmes IT secondaires des clients. Ne vous y trompez pas : la révolution du Big Data a déjà commencé, et alors que chaque DSI se sent contraint de trouver de nouveaux moyens économiques pour stimuler la croissance, le Big Data va continuer d’alimenter les conversations et devenir un facteur de consolidation du marché du Cloud.

Karine Calvet, directrice générale de Verizon France

Recent Posts

AWS abandonne WorkDocs, son concurrent de Dropbox

Un temps pressenti pour constituer le socle d'une suite bureautique AWS, Amazon WorkDocs arrivera en…

1 jour ago

Eviden structure une marque de « serveurs IA »

Eviden regroupe cinq familles de serveurs sous la marque BullSequana AI. Et affiche le supercalculateur…

2 jours ago

SSE : l’expérience se simplifie plus que les prix

Le dernier Magic Quadrant du SSE (Secure Service Edge) dénote des tarifications et des modèles…

2 jours ago

IA générative : les lignes directrices de l’ANSSI

Formats de paramètres, méthodes d'apprentissage, mutualisation GPU... Voici quelques-unes des recommandations de l'ANSSI sur l'IA…

2 jours ago

De la marque blanche à l’« exemption souveraine », Broadcom fait des concessions aux fournisseurs cloud

À la grogne des partenaires VMware, Broadcom répond par diverses concessions.

3 jours ago

iPadOS finalement soumis au DMA

iPadOS a une position suffisamment influente pour être soumis au DMA, estime la Commission européenne.

3 jours ago