Le glas du Big Data a-t-il sonné ?

Big DataData & Stockage
Word Cloud "Big Data"

Plus de 15 ans après sa conceptualisation autour des « 3V » ou des « 5V », la vague du Big Data a largement déferlé sur une majorité d’entreprises, mais toutes en ont une définition différente.

Comme l’a démontré la nouvelle édition du salon Big Data Paris, reporté en Septembre, le Big Data fait encore parler de lui. Plus de 15 ans après sa conceptualisation autour des « 3V » ou des « 5V », la vague du Big Data a largement déferlé sur une majorité d’entreprises, mais toutes en ont une définition différente.

Beaucoup d’entre elles ont adopté ces technologies et architectures pensant pouvoir résoudre leurs challenges en matière de gestion et de valorisation des données, sauf qu’en réalité ces promesses ont bien souvent été largement surestimées et trop d’approches purement techniques n’ont pas abouti. Même si le Big Data continue avec l’IA de représenter un grand défi pour 77% des entreprises selon une enquête de NewVantage, la décennie 2010 perçue comme l’âge d’or des années du Big Data est révolue. 2020 sera-t-il marqué par son échec ?

Le Big Data doit survivre en tant que culture d’entreprise

Avec les défis et les besoins grandissants en matière d’organisation et d’analyse de données, la notion de Big Data doit se pérenniser et se renforcer au-delà de l’aspect technologique pour favoriser celui d’un ADN d’entreprise autour de cette donnée et de sa valeur. Bien plus qu’une technologie, le Big Data est un concept qui englobe les données, leur valorisation et leur gestion.

La décennie précédente a permis aux entreprises de réaliser l’importance des données et de leur analyse, afin de prendre de meilleures décisions, de rester compétitives sur un marché très concurrentiel et d’améliorer leur efficacité, à l’image de l’augmentation du chiffre d’affaires et de l’optimisation de la chaine d’approvisionnement. Les efforts des entreprises doivent se poursuivre, voire même s’intensifier afin d’embrasser cette culture Data.

Toutefois, le chemin à parcourir est encore long. Elles ont désormais pour impératif de s’attaquer au vrai problème : la gestion des données, c’est-à-dire comment rendre la donnée de qualité et disponible au plus grand nombre, comment l’organiser en fonction des usages et comment en tirer un maximum de valeur tout en simplifiant l’organisation de ce patrimoine.

Il s’agit là d’un réel défi puisque les entreprises ont pour héritage une gestion des données complexe, où chaque besoin a trop souvent été solutionné par son silo de données, et ce en trop grand nombre. Cette tendance pourrait être exacerbée alors que les entreprises adoptent progressivement le cloud comme vecteur de transformation. Ce dernier est potentiellement plus permissif et propice aux approches en silos si l’on n’y prend pas garde, alors qu’il est possible de partager un socle commun de données y compris dans le cloud.

Afin de créer une orchestration de la donnée, les entreprises doivent implémenter une plateforme de données qui répond à plusieurs exigences : d’une part, aider à simplifier cette gestion et cette organisation de la donnée en la rendant accessible au plus grand nombre, d’autre part, permettre de tester des modèles algorithmiques et, plus important encore, permettre une industrialisation rapide et les intégrer dans les processus opérationnels de l’entreprise, par exemple pour venir enrichir la relation client ou optimiser la détection de fraude. Simplifier la gestion de la donnée permettra d’amplifier leur valorisation et la mise en action de cette intelligence.

Vers un écosystème hybride simplifié de solutions technologiques pour amplifier la valeur des données

Cette boucle vertueuse de la donnée sera d’autant plus efficace lorsqu’un écosystème hybride de solutions technologiques aura été mis en place sur la base d’une modernisation de l’architecture data.

Cet écosystème est hybride tant par les produits complémentaires qui le composent que par son mode de déploiement. Une fois que l’entreprise est parvenue à traduire sa stratégie digitale en exigences métiers et en architecture fonctionnelle, elle sélectionne les différents composants technologiques qui s’y intégreront, et non l’inverse. Il est essentiel que les entreprises choisissent des solutions qui sont en synergies entre elles et capables de répondre aux exigences métiers et technologiques « à l’échelle » ; par exemple la capacité à exécuter quotidiennement des millions de modèles analytiques sur une plateforme analytique commune et une version unique de données.

Enfin, si la majorité des entreprises ont jusqu’à présent stocké leurs données dans un datacenter, elles se tournent progressivement vers le cloud pour profiter de ses bénéfices (mode de tarification, élasticité, etc.). Toutefois, certaines sont encore frileuses quant au fait de stocker l’ensemble de leurs données et patrimoine applicatif au même endroit, et décident donc d’adopter une stratégie hybride, ou les données sont stockées à la fois sur site et dans le cloud, voire même dans plusieurs cloud grâce à la combinaison de plusieurs fournisseurs.

Le graal réside sans doute dans la mise en place d’une plateforme de données unique qui combinera des usages industriels avec un fort niveau de services, et des usages ad-hoc et de laboratoire sur les mêmes données, tout en facilitant l’industrialisation, quand elle est nécessaire. Cette plateforme doit répondre à une approche « bi-modale » qui combine le meilleur de l’agilité et de l’industrialisation et ce à l’échelle.
C’est avec l’implémentation de cet écosystème technologique hybride et « bi-modale » que la plateforme de données sera pleinement optimisée pour tirer un maximum de valeurs des données.

En définitive, la culture des données est l’élément qui va être conservé de la décennie du Big Data. Pour être pilotées par la donnée, les entreprises doivent continuer à penser à leurs problématiques métier avant de s’interroger sur la manière dont les données peuvent résoudre ce problème pour enfin mettre en place la bonne architecture, composée de solutions adéquates.
Les entreprises vont désormais s’attaquer au réel problème qui les freine dans cette transformation : la démocratisation de l’accès à des données de qualité à travers une organisation simplifiée de celle-ci, pour pouvoir en tirer un maximum de valeur.

Sans ce socle essentiel, les initiatives analytiques, allant du simple reporting à l’utilisation du machine learning et de l’intelligence artificielle, resteront compliquées à concevoir et à industrialiser, et ne permettront pas de réaliser les pleines promesses et bénéfices.

Auteur
En savoir plus 
Technology Sales Director
Teradata
Jean-Marc Bonnet est Technology Sales Director chez Teradata
En savoir plus 

Livres blancs A la Une