IOD 2013 – Quand l’analytique fait battre le cœur du système d’information

IBM IOD 2013

Simplification de l’accès au Big Data et à l’analyse prédictive, et intégration de la technologie In-Memory BLU à DB2 constituent les principales nouveautés d’IBM présentées lors de l’Information On Demand 2013 à Las Vegas.

De notre envoyé à Las Vegas – « Vous ne devez pas considérer l’informatique analytique comme une fonction supplémentaire ou un ajout, mais plutôt comme un composant intégré à chaque tâche ou processus des activités de votre entreprise, clame Mike Rodhin, senior vice président, Software Solutions Group chez IBM. L’aide à la décision devient alors une partie inhérente à chaque opération, à chaque évolution, à chaque traitement… »

IBM IOD Mike Rodhin, senior vice président, Software Solutions Group chez IBM
Mike Rodhin, senior vice président, Software Solutions Group chez IBM

IBM, comme la plupart de ses concurrents (SAP, Oracle, Teradata, SaS…) placent donc désormais la Business Intelligence au cœur des processus, voire au cœur du système. Seulement, cela soulève de nombreuses questions liées à la simplicité. En effet, le prédictif basé sur des statistiques ou encore Big Data nécessitent des compétences pointues, malgré certains discours ambiants.

« La démocratisation de l’accès à l’information passe par l’intégration du prédictif dans les applications, qui en simplifie ainsi la consommation par l’utilisateur métier, tranche Mike Rodhin. Bien entendu, cela nécessite des techniques de visualisation adaptées afin de rendre ces résultats compréhensibles. »

Durant les quelques jours d’Information on Demand (IOD) 2013, IBM a donc annoncé toute une panoplie de nouveautés ou d’améliorations illustrant la volonté de simplification.

Simplifier la recherche en milieu Big Data

Pas toujours facile de s’y retrouver pour naviguer parmi les données Big Data ! Et que faire lorsqu’il s’agit de combiner ces informations à d’autres sources de données ?

IBM augmente les capacités d’Infosphere Data Explorer pour lui permettre d’explorer jusqu’à plusieurs pétaoctets de données, et donc les volumes Big Data. Ce logiciel, né suite au rachat de la Velocity Platform de Vivisimo par IBM en avril 2012, collecte, corrèle et organise les informations provenant de diverses sources (y compris Big data), à divers formats et en divers lieux. Donc, également stockées sur le cloud.

Face au manque de compétences sur les technologies Big Data, l’éditeur propose Big SQL qui permet d’interroger des entrepôts Big Data en langage SQL, sous le mode “SQL over Hadoop”

In-Memory et bonnes pratiques intégrées

Alors que SAP a habilement accaparé le débat In-Memory avec son offre innovante Hana depuis plus de deux ans, tous ses concurrents ont joué des coudes pour mettre en avant leurs propres technologies In-Memory et de traitement en colonne.

Après Sas, Teradata et Oracle, IBM annonce à son tour l’intégration de sa technologie BLU Acceleration dans DB2. Au menu de la solution In-Memory BLU : des tables en colonnes coexistant avec les tables en ligne, l’utilisation du SQL et des mêmes utilitaires en mode In-Memory qu’en mode classique, une compression évoluée des données, le parallélisme multiprocesseur, ou encore le data skipping (détection automatique des sections de données à ignorer économisant des entrées/sorties et augmentant les performances).

Baptisés BI-BLU, les Business Intelligence Pattern with BLU Acceleration assemblent la technologie In-Memory BLU, des cubes dynamiques et des modèles d’expertise métier. Bref des packages intégrant les bonnes pratiques d’un secteur d’activités.

Le prédictif revient en force

Autre grande tendance de la BI actuelle et à venir, l’analyse prédictive remet au goût du jour les statistiques, domaine plutôt complexe. Là encore, la simplification n’est pas un luxe.

Véritable « statisticien intégré au logiciel », SPSS Analytic Catalyst met automatiquement en évidence les éléments-clés et les relations entre les informations issues de Big Data. Il génère un résultat (en anglais) avec des phrases du type « l’arbre de décision montre que ‘Responded to mailing’ est clairement influencé par ‘nombre de carte de fidélité’, ‘scoring XY’ et sept autres facteurs ».

Non seulement l’utilisateur peut cliquer pour explorer les champs mentionnés, ou choisir divers modes de représentation (histogrammes, zones colorées, etc.) mais il peut aussi naviguer sur l’arbre de décision mentionnant tous les champs de résultats.

Enfin, destiné à concevoir de modèles statistiques sans codage, SPSS Modeler a été enrichi de techniques statistiques supplémentaires et de nouvelles procédures créées en langage R.

Protéger et sécuriser l’accès aux données sensibles

Toutes ces données Big Data circulant dans et en dehors de l’entreprise ne rassurent pas les décideurs. Avec InfoSphere Data Privacy for Hadoop, Big Blue apporte des possibilités d’anonymisation des données dans des systèmes Hadoop, NoSQL ou relationnels. La solution comprend aussi des fonctions de supervision de l’activité des données (data activity monitoring) afin de maîtriser l’accès et l’utilisation de ces informations.

Simplifier les modes de recherche, la programmation, l’accès aux algorithmes prédictifs, ou encore intégrer les bonnes pratiques et la protection des données sensibles… IBM fait évoluer de nombreux domaines. L’éditeur a d’ailleurs racheté de nombreuses entreprises cette année, et depuis trois ans.

En 2014, les divers projets menés dans les entreprises devraient montrer si l’intégration de ces multiples technologies simplifie effectivement non seulement l’usage par l’utilisateur final, mais aussi le travail des informaticiens et autres statisticiens ou « data-scientists ».


Voir aussi
Quiz Silicon.fr – IBM le doyen de l’industrie IT