Big Data : des technologies et des usages

Big DataCloud

Le Big Data s’expose durant deux jours à la Cité Internationale Universitaire de Paris. L’occasion de faire le point sur un concept qui ne demande qu’à s’épanouir.

Qu’est-ce que le Big Data ? Une réponse s’impose : un ensemble d’outils pour affronter l’augmentation exponentielle des données. Qu’ils soient fournisseurs ou clients, tous s’entendent sur ce point. La notion de données structurées ou non structurées est à peine effleurée. La priorité c’est de faire face à ces données qui submergent les organisations, ou ne manqueront pas de le faire. Et pour cela, il faut que l’infrastructure suive… ou s’adapte. « Faites le point sur votre équipement, renforcez votre réseau et améliorez sa performance », nous a conseillé un utilisateur pragmatique. « Après, si cela ne suffit pas, vous pourrez vous tourner vers le Big Data ! »

Le Big Data, c’est donc d’abord la capacité de stocker de très gros volumes de données. Ce que la technologie apporte ici, face à l’existant, c’est la « scalabilité », la capacité d’évoluer, et cela plus simplement. Pas de gigantesques fermes de données, mais des appliances qui peuvent se plugger les unes à la suite des autres afin d’augmenter l’espace de stockage. Le « file system », le système de fichiers, qui qualifie l’organisation des données, est essentiel. Sur lui pèse la gestion de l’empilement et de l’accumulation des fichiers, ou plutôt des blocs.

Après l’infrastructure vient l’analyse

C’est bien de pouvoir stocker les données, mais encore faut-il pouvoir également les retrouver, les rechercher et les exploiter : l’analytique. En la matière, une technologie s’impose, Hadoop. Ce projet applicatif, qui prend place au-dessus du matériel, fait l’unanimité, même s’il est encore loin d’être stable dans ses développements. Hadoop présente un avantage et un inconvénient : porté par une communauté open source, il emporte un message bourré d’opportunisme économique ; en revanche, il affiche une rare complexité qui est loin de le rendre accessible au commun des DSI.

Le Big Data est-il révolutionnaire ?

Oui et non ! Pour les tenants de l’infrastructure, le Big Data n’est qu’une vision de l’usage de technologies de stockage existantes, rien de plus. Pas grand-chose de révolutionnaire là dedans, hormis peut-être la simplification de l’extension des configurations en place. Pour les tenants de l’analytique, en revanche, la révolution est bien là : le Big Data affiche une double promesse, de pouvoir traiter données structurées et non structurées, et d’être capable de paramétrer quasiment n’importe quel besoin analytique. Attention, cependant, déployer une infrastructure Big Data demande de mettre les mains dans le cambouis et de programmer. « Nous pourrons faire ce que nous voulons des données, nous a-t-on affirmé, à condition de rentrer dans le code pour obtenir ce que l’on souhaite. »

Big Data risque-t-il de faire de l’ombre au Cloud ?

L’ombre du Cloud Computing a plané lors des débats. En revanche, le nuage est peu présent dans les discours des personnes que nous avons rencontrées. Est-ce parce que les préoccupations des uns et des autres divergent ? Probablement pas, bien au contraire. Il nous a plutôt semblé que les utilisateurs prêts à s’impliquer dans le Big Data ont d’ores et déjà atteint un haut niveau de maturité sur le cloud, et que le Big Data ne serait finalement qu’un composant d’une stratégie dans les nuages. De toute évidence, les candidats au Big Data font preuve d’un pragmatisme à toute épreuve : ils doivent y passer, car ils n’ont pas d’autre choix !

L’adoption du Big Data risque fort d’être l’une des plus rapides que le monde des IT professionnelles ait connue, un phénomène technologique au service de la consumérisation de la donnée, en quelque sorte. À suivre…


Lire la biographie de l´auteur  Masquer la biographie de l´auteur