EMC World 2013 : Paul Maritz présente Pivotal

Dans le keynote d’ouverture d’EMC World, Joe Tucci, le CEO, a présenté Pivotal comme « la plateforme de prochaine génération pour le big data et le fast data ». Objectif, le milliard de dollars.

De notre correspondant à Las Vegas – Assemblage de diverses sociétés acquises par EMC et VMware (rappelons qu’en 2012 le groupe à consacré 12 % de ses revenus à la R&D et 10 % aux acquisitions), Pivotal est désormais le bras armé d’EMC dans le Big Data. Celui-ci est l’un des trois focus du groupe, avec le cloud et la confiance (sécurité).

Le dirigeant de Pivotal, Paul Maritz, vise le milliard de dollars dès l’an prochain.

Promu à la tête de Pivotal dès sa création, voici quelques mois (lire « Avec la spin-off Pivotal, EMC et VMware s’attaquent à IBM, Microsoft et Oracle »), Paul Maritz a cédé les clés de VMware à Pat Gelsinger afin de se consacrer à ce nouveau et ambitieux projet. Celui qui a piloté le projet .NET chez Microsoft est certainement l’homme de la situation.

Valorisé 1 milliard de dollars depuis que General Electric a pris une participation dans Pivotal et rejoint EMC et VMware au capital, la start-up – mais peut-on donner cet attribut à une jeune entreprise qui a déjà plus de 1000 employés et dont les composants ont réalisé 300 millions de dollars de chiffres d’affaires en 2012 ? – vise le milliard dès l’an prochain sur un marché estimé à 17 milliards de dollars en 2016.

Une nouvelle génération d’applications

« Nous allons introduire une nouvelle génération d’applications et d’expériences, qui vont apporter de nouveaux modèles économiques, décrit Paul Maritz. Pivotal cible le Big Data et le Fast data avec une nouvelle génération d’applications. Dans ces domaines, le plus important est « comment », et non pas « où ». Et tout ce que l’on fait ramène aux applications. »

Quelle est la problématique pour l’utilisateur ? Paul Maritz la résume en quatre points :

  • le stockage de très gros volumes de données ;
  • la culture du développement rapide d’applications, « c’est fondamentalement un problème d’automatisation » ;
  • l’introduction de gros volumes d’événements et la nécessité de réagir en temps réel, il évoque ici l’internet des objets et la télémétrie pervasive ;
  • l’interaction avec les applications legacy et l’infrastructure existante, à opérer et dimensionner avec le cloud.

La prochaine génération du PaaS

La réponse portée par Pivotal à cette problématique s’appelle Pivotal One. Elle est composée de trois ingrédients ou frabrics : Cloud fabric, sur laquelle reposent Data fabric et Application fabric.

  • Data fabric

Reposant sur HDFS et Hadoop, ainsi que la nouvelle génération de matériels scale-out et in-memory, cette fabric a pour objectif l’ingestion, le requêtage et la transaction de la donnée.

Data fabric réunit Greenplum, qui applique sur Hadoop son expérience des requêtes parallèles, et Gemfire, le grid de données in-memory et temps réel. S’y ajoutent les développements de Pivotal HD, pour introduire les technologies Greenplum dans la distribution Apache Hadoop, et de HAWQ, un système de requêtage analytique temps réel pour Apache Hadoop concurrent de Hive et Impala (Cloudera).

  • Application fabric

Basé sur vFabric et spring, cette fabric réunit les langages et les framewoks, ainsi que les services et les analytiques.

  • Cloud fabric

Paul Maritz présente cette fabric comme l’OS pour l’âge du cloud… Basée sur Cloud Foundry (qui fut un temps présenté comme le concurrent de Microsoft .NET), c’est la couche d’abstraction et de portabilité du cloud et des services de registres pour l’automatisation du provisioning et du cycle de vie des applications.

Disponibilités

Pivotal One sera disponible au dernier trimestre de cette année.

Issus des entreprises acquises qui composent le projet Pivotal, plusieurs solutions sont disponibles dès aujourd’hui : sur la Data fabric, Pivotal HD, Gem/SQLfire et Greenplum HD ; sur l’Application fabric, Spring et vFabric. Ainsi que Pivotal Labs pour la partie conseil et développement.


Voir aussi
EMC World 2012 : du stockage au cloud hybride, en passant par le Big Data