Après avoir œuvré au devenir de DataSynapse et de ses solutions de grid et de cloud, rachetée par Tibco en 2009, Peter Y. Lee est aujourd’hui à la tête de la division Cloud Computing de l’éditeur. Partenaire de Teradata, il a accepté de nous rencontrer au cours de l’événement organisé par cet éditeur (Big Analytics), afin d’évoquer le rôle du big data analytique dans sa solution évoluée de Complex Event Processing (CEP).
Rappelons tout d’abord que la CEP, gestion des évènements complexes, est une méthode de tracking et d’analyse des flux de données pour repérer des évènements qui peuvent se révéler être des menaces ou des alertes, afin d’y répondre le plus rapidement possible.
Silicon.fr : Vous êtes très présent sur cette conférence. Pourquoi le big data ?
Peter Y. Lee : Le big data évoque l’évolution inéluctable vers la donnée en mouvement. Il demande une nouvelle approche, pas un legacy structuré et répétable, mais du big data discovery. Notre vision du big data analytique correspond à celle de Teradata, c’est pourquoi nous sommes partenaires sur leur architecture UDA.
Et dans la gestion des évènements ?
Dans la CEP, un événement entraîne une action analytique. La solution interagit avec les événements détectés par l’analytique et rend les données accessibles. Avec l’event processing, l’analytique se déroule avec des contacts big data qui s’ouvrent sur de nombreux contextes analytiques. Ce ne sont pas seulement des évènements, mais également des émotions, ce que nous appelons la ‘data emotion’.
En quoi le big data vous aide-t-il dans ce cas d’usage ?
Nous avons démontré le rôle dramatique des réseaux sociaux dans le prédictif. Le big data nous permet une analyse en temps réel des sentiments, et ainsi de détecter les signaux qui vont demander des interventions. Pour cela, nous réalisons un inventaire des individus liés à un profil, par exemple par typologie de consommateur, afin d’adapter l’analytique dans le cadre d’une échelle de risques évènementiels.
Comment choisissez-vous les données à analyser ?
Nous ne choisissons pas : toutes les données doivent être analysées ! Nous analysons en temps réel (Peter Y. Lee préfère l’expression ‘right time’ à ‘reel time’ – NDLR) plus de 3 000 sources de données, avec des algorithmes qui déterminent ce qui est important. Le big data offre la capacité à ne pas avoir à choisir la donnée, mais au contraire à traiter l’ensemble de la donnée. Il nous permet de faire la même chose, mais de le faire mieux. De plus, nous sommes agnostiques sur les algorithmes analytiques. En revanche, nous privilégions les framework accélérés, qui nous permettent de capturer le plus rapidement possible la donnée afin d’apporter une vision analytique des évènements.
Voir aussi
Silicon.fr étend son site dédié à l’emploi IT
Silicon.fr en direct sur les smartphones et tablettes
Le voile est levé sur Oracle Code Assist. Présenté comme spécialisé en Java et SQL,…
EPEI, la société d'investissement de Daniel Kretinsky, a déposé une offre de reprise d'Atos. En…
Onepoint, l'actionnaire principal d'Atos, a déposé une offre de reprise du groupe. En voici quelques…
Broadcom a repris seul la main sur la vente de l'offre VMware d'AWS... qui, dans…
Microsoft expérimente, sous la marque ZTDNS, une implémentation des principes zero trust pour le trafic…
Accord de principe entre créanciers, propositions de reprise, discussions avec l'État... Le point sur le…