Informatica World 2008 : nouveau socle, nouveau moteur pour la qualité des 'data'

Pour expliquer l’évolution déjà évoquée avec le CEO de l’entreprise, Ivan Chong, directeur général en charge de la qualité des données chez Informatica, nous explique les avantages et les évolutions en cours de préparation.

Quels changements réels apporte le fait de faire reposer toute la plate-forme sur la qualité des données ?

Principale nouveauté : la qualité de la donnée est valable pour tous les outils. Généralement dans les solutions d’intégration, c’est une application à part. En combinant sur la plate-forme intégration et qualité des données, cette version 8.6 apporte une meilleure cohérence globale jusqu’aux processus, pour une intégration de données de qualité de bout en bout.

Auparavant, le moteur de qualité des données était une partie de PowerCenter. Aujourd’hui, c’est un moteur indépendant au service de tous les outils de la plate-forme, qui propose donc l’intégration, la qualité de service et la résolution d’identité (détaillée dans une prochaine interview) à toutes les fonctions de la solution.

De plus, le référentiel commun à tous les outils stocke aussi les règles de qualité des données. Il devient alors possible d’analyse les métadonnées, de visualiser les règles concernées, et donc de les suivre et les maintenir.

informatica_i_chong.jpg

Néanmoins, l‘entreprise peut combiner vos outils avec les solutions d’autres éditeurs ?

Bien entendu, nos produits ouverts peuvent s’interfacer avec toutes les solutions du marché. Cependant, on perd alors l’effet d’intégration entre PowerCenter et Data Quality. De plus, le travail de PowerCenter risque fort dans ce cas d’être effectué deux fois, par lui-même et par le module intégration de la solution tierce. C’est pourquoi il y a fort à parier que cela générera des traitements inutiles et détériorera les performances.

Quelles seront les évolutions majeures des mois à venir en matière de qualité de données ?

La prochaine évolution, sur laquelle nous travaillons déjà, concerne l’automatisation des tâches, avec une orchestration des processus de qualité des données. Ainsi, le mapping s’effectue aujourd’hui en différentes étapes, nous tenterons de les réduire au maximum. De plus, ces dernières ne sont pas toujours liées aux processus de qualité des données, et nécessitent des interventions humaines diverses. Nous faciliterons donc la collaboration via des mécanismes de type workflow. Et cela sonnera le glas des multiples emails et feuilles de calcul intermédiaires fastidieuses, souvent source d’erreurs, et dégradant toujours les performances.

Autre innovation : selon son rôle dans la chaîne du traitement de la qualité des données, chaque utilisateur arrivera sur l’outil qui lui convient sans se poser de questions. Des fonctions qui permettront au passage d’automatiser la traçabilité des actions, de plus en plus imposée par les réglementations.

Bien sûr, l’orchestration de services reposera sur le standard Bpel, et les nouvelles interfaces utilisateur sur un environnement Eclipse, qui permet de définir des écrans spécifiques selon les rôles des utilisateurs. Actuellement, les développeurs accèdent à une interface de type client riche et les utilisateurs passent par une interface Web.