Peter Lee, Tibco : « mettre le big data au service du Complex Event Processing »

Partenaire de Big Analytics aux cotés de Teradata, Tibco est venu démontrer un usage concret du big data : la gestion des évènements.

Après avoir œuvré au devenir de DataSynapse et de ses solutions de grid et de cloud, rachetée par Tibco en 2009, Peter Y. Lee est aujourd’hui à la tête de la division Cloud Computing de l’éditeur. Partenaire de Teradata, il a accepté de nous rencontrer au cours de l’événement organisé par cet éditeur (Big Analytics), afin d’évoquer le rôle du big data analytique dans sa solution évoluée de Complex Event Processing (CEP).

Rappelons tout d’abord que la CEP, gestion des évènements complexes, est une méthode de tracking et d’analyse des flux de données pour repérer des évènements qui peuvent se révéler être des menaces ou des alertes, afin d’y répondre le plus rapidement possible.

Silicon.fr : Vous êtes très présent sur cette conférence. Pourquoi le big data ?

Peter Y. Lee, président de la division Cloud Computing de Tibco
Peter Y. Lee, président de la division Cloud Computing de Tibco

Peter Y. Lee : Le big data évoque l’évolution inéluctable vers la donnée en mouvement. Il demande une nouvelle approche, pas un legacy structuré et répétable, mais du big data discovery. Notre vision du big data analytique correspond à celle de Teradata, c’est pourquoi nous sommes partenaires sur leur architecture UDA.

Et dans la gestion des évènements ?

Dans la CEP, un événement entraîne une action analytique. La solution interagit avec les événements détectés par l’analytique et rend les données accessibles. Avec l’event processing, l’analytique se déroule avec des contacts big data qui s’ouvrent sur de nombreux contextes analytiques. Ce ne sont pas seulement des évènements, mais également des émotions, ce que nous appelons la ‘data emotion’.

En quoi le big data vous aide-t-il dans ce cas d’usage ?

Nous avons démontré le rôle dramatique des réseaux sociaux dans le prédictif. Le big data nous permet une analyse en temps réel des sentiments, et ainsi de détecter les signaux qui vont demander des interventions. Pour cela, nous réalisons un inventaire des individus liés à un profil, par exemple par typologie de consommateur, afin d’adapter l’analytique dans le cadre d’une échelle de risques évènementiels.

L'apport de valeur du big data analytique
L’apport de valeur du big data analytique

Comment choisissez-vous les données à analyser ?

Nous ne choisissons pas : toutes les données doivent être analysées ! Nous analysons en temps réel (Peter Y. Lee préfère l’expression ‘right time’ à ‘reel time’ – NDLR) plus de 3 000 sources de données, avec des algorithmes qui déterminent ce qui est important. Le big data offre la capacité à ne pas avoir à choisir la donnée, mais au contraire à traiter l’ensemble de la donnée. Il nous permet de faire la même chose, mais de le faire mieux. De plus, nous sommes agnostiques sur les algorithmes analytiques. En revanche, nous privilégions les framework accélérés, qui nous permettent de capturer le plus rapidement possible la donnée afin d’apporter une vision analytique des évènements.

L'infrastructure Big Data analytique selon Tibco
L’infrastructure Big Data analytique, selon Tibco

Voir aussi

Silicon.fr étend son site dédié à l’emploi IT
Silicon.fr en direct sur les smartphones et tablettes