Les start-ups Hadoop engrangent les millions… pas les prestataires.

Big DataComposants

Pourquoi les fonds américains investissent-ils des centaines de millions dans Hortonworks, Cloudera ou MapR ? La vague Hadoop est-elle subie ou surfée en France ? Entretien avec Charles Parat, directeur recherche et innovation chez Micropole.

Si Hadoop ne représente qu’une partie du Big Data (le streaming est par exemple beaucoup plus déployé et utilisé en production…), il incarne une rupture forte de ces infrastructures analytiques, aux niveaux matériel et logiciel. Et, pour certains spécialistes, Hadoop préfigure l’informatique de demain. Logique donc de voir les investisseurs se ruer vers Hadoop et ses éditeurs.

Big pluie de millions de dollars sur le Big Data

La semaine dernière, Hortonworks annonçait ainsi un tour de table financier débouchant sur un apport de 100 millions de dollars (investisseurs de départ rejoints par BlackRock et Passport Capital) s’ajoutant aux 50 millions de dollars levés en juin 2013 auprès de Dragoneer Investment et de Tenaya Capital, rejoignant alors les investisseurs historiques Benchmark Capital, Index Ventures et Yahoo. Désormais, Hortonworks affiche son désir d’entrée en bourse au second semestre 2014. Il faut battre le fer pendant qu’il est chaud. Mais est-il chaud ou tiède ?

Autre pionnier du Big data, Cloudera a également annoncé en fin de semaine un montant significatif auprès d’Intel qui deviendrait son plus important investisseur à hauteur « de plus de 90 millions de dollars,» selon VentureBeat. Il y a moins de quinze jours, l’éditeur annonçait avoir déjà levé 160 millions de dollars (Google, MSD Capital –fond familial de Michael Dell- et T. Rowe Price).

Enfin, souvent associé aux deux autres, MapR propose certes une offre basée sur Hadoop, mais proposant son propre gestionnaire de fichiers (brique essentielle) afin de pallier certains manques dans Hadoop v1. En mars 2013, l’éditeur avait levé 30 millions de dollars (fonds Mayfield aux côtés des historiques Lightspeed, NEA et Redpoint), s’additionnant aux 29 millions de dollars pour sa création en 2011. Soit 59 millions de dollars de capitalisation au total .

Dans tous ces cas, il s’agit de financer la R&D, d’accélérer l’expansion internationale, et de recruter (ou conserver) les meilleurs talents. Pour les investisseurs, une telle valorisation, accompagnée d’une augmentation sensible du portefeuille de clients et de partenariats technologiques avec les géants informatiques, alimente évidemment les espoirs d’entrée en bourse ou de rachat (Lire à ce sujet MapR : et si le Big Data entrait en bourse).

Charles Parat - Micropole
Charles Parat – Micropole

De “gadget” open source à solution fiable

Si l’on considère objectivement les projets Hadoop en France, ils ne sont pas légion. Il existe certainement de nombreux projets Big Data, mais dont la plupart reposent sur du streaming ou d’autres technologies, mais plus rarement sur Hadoop. Et pour cause : les pionniers ne sont présents en France que depuis peu, et sur des technologies très innovantes.

« Cloudera fut le premier des pionniers du Big Data à venir en France, et donc la plate-forme Hadoop retenue par Micropole pour son premier projet Hadoop en 2011. HortonWorks et MapR sont arrivés plus récemment », confirme Charles Parat, directeur Recherche et Innovation chez Micropole. « Ces premiers projets étaient essentiellement des expérimentations. En effet, nous cherchions à définir une vision par rapport aux bases de données NO-SQL, sans distinguer a priori de réelle valeur ajoutée, et dans une mécanique de marché très incertaine. D’autant plus qu’à l’époque, les analystes regardaient Hadoop de haut et continuaient à plaider quasi exclusivement pour les SGBDR. Difficile alors d’expliquer le potentiel de Hadoop à nos clients. »

Pourtant, un éditeur se démarque un peu pour mieux adresser le besoin des entreprises, mais en s’éloignant de la distribution open source, comme l’explique Charles Parat : « En 2012, MapR arrive avec sa solution et son gestionnaire de fichiers MapFS déclinant celui d’Hadoop (HDFS) pour le rendre plus fiable. Certes, l’éditeur s’éloigne alors du standard, mais propose une solution fiable. En 2013, Hadoop 2 (et surtout 2.2) apporte enfin la crédibilité et le sérieux à cette distribution. Au passage, Cloudera et Hortonworks adoptent ces versions et profitent de cette crédibilité. Hadoop passe enfin du stade de curiosité technique à celui de solution opérationnelle.»

De 2011 à mi 2013 (et encore aujourd’hui) , la pénurie de clients décourage de nombreuses SSII (devenues ESN – entreprises en services numériques). « Après trois années d’investissement très conséquent pour ses expérimentations Hadoop, Micropole a suivi le bruissement permanent de ces technologies, mais sans rentabilité à la clé,» reconnaît le responsable en R&D. « Nous apprécions d’autant plus aujourd’hui la stabilité de la partie basse de l’infrastructure, malgré quelques guerres de chapelles sur l’administration, par exemple. Il est d’ailleurs indispensable de maintenir une veille sur ces évolutions incessantes. Il faut surveiller les évolutions d’Hadoop comme le lait sur le feu.»

Editeurs de BI : séduits ou manipulateurs ?

Si la professionnalisation d’Hadoop a contribué à convaincre les investisseurs, les nombreux partenariats que ces trois pionniers ont signés avec les géants informatiques ont certainement fait pencher définitivement la balance. Pourtant, les choses sont moins claires qu’il ne semblerait au premier abord, entre besoin de crédibilité et de réseau pour les pionniers et déficit d’image et retard technologique pour les acteurs installés. Parmi les grands noms ayant signé avec l’un ou plusieurs des trois pionniers cités : EMC, HP, IBM, Microsoft, Oracle, SAP, SAS, Teradata…

« On trouve désormais quelques spécialistes maison de ces distributions en France. Toutefois, le modèle reste basé sur l’écosystème des partenaires, facilité par les partenariats avec de grands éditeurs », analyse aussi Charles Parat. « On remarque d’ailleurs des stratégies étonnantes. Ainsi, Oracle pousse à la fois Cloudera et Oracle No-SQL. On retrouve aussi ce type de double langage chez Teradata, qui met en avant Hortonworks et ses propres solutions, ou encore Microsoft qui promeut également ce dernier afin de proposer sa propre infrastructure aux clients. Tous ces acteurs restent persuadés qu’il faut avant tout vendre leurs solutions. Ils semblent nouer des alliances avec ces pionniers afin de se justifier face aux technologies Hadoop, sur lesquelles ils affichent un retard évident. Toutefois, les DSI apprécient des solutions sachant tout faire. “Faire rentrer du Hadoop” de façon autonome ajouterait une technologie supplémentaire dans un SI déjà complexe.»

Bien entendu, cela reste un argument pour les investisseurs, car ces alliances augmentent la notoriété et permettent, malgré tout, de mettre le pied dans certaines grandes entreprises, qui font plutôt confiance à ces géants informatiques.

Vers un avenir radieux ?

Sur un marché hexagonal hésitant, comment les SSII peuvent-elles profiter de la vague Hadoop ? « Notre rôle consiste à faire comprendre à une entreprise dans quels cas l’utilisation d’Hadoop devient intéressante ou indispensable, mais également les projets pour lesquels elle peut s’en passer », résume Charles Parat. « Dans cette démarche, il convient d’évaluer correctement le niveau de maturité de l’entreprise sur les applications analytiques. Chez Micropole, nous optons plus volontiers pour Hortonworks ou Cloudera. En effet, nous estimons que le marché se retrouvera plutôt sur ce type de produits. Positionnée sur les besoins métiers de l’entreprise, Micropole travaille à la fédération des données, dont Hadoop n’est que l’une des composantes. Il nous faut aller chercher tout contenu, où qu’il se trouve, quels que soient son format et le type de stockage.»

Avec Hadoop, les infrastructures et le mode de développement (optimal) incarnent des ruptures technologiques pour lesquelles les compétences sont peu répandues. « En France, nous constatons un désert de compétences sur l’infrastructure Hadoop,» atteste Charles Parat, qui conclut malgré tout sur des lueurs d’espoir : « On peut imaginer que ces technologies annoncent des métiers d’avenir qui seront (et sont déjà) très demandés par des opérateurs en télécommunications ou des hébergeurs, entre autres. Et ses compétences sont aussi bien d’ordre matériel que logiciel. Quant aux éditeurs, ils ont un rôle essentiel à jouer sur les solutions Hadoop, en les rendant opérables dans un environnement informatique. À la manière d’un IBM y propose tout un outillage Hadoop opérationnel dans sa solution Insight. »


Voir aussi

Silicon.fr en direct sur les smartphones et tablettes


Auteur : José Diz
Lire la biographie de l´auteur  Masquer la biographie de l´auteur