Informatica confirme son virage vers l’intégration

Régulations

Avec 40 % de son chiffre d’affaires réalisé dans l’intégration de données, le spécialiste du datawarehouse s’installe confortablement dans l’intégration de données

Né il y a plus de dix ans en plein essor des “entrepôts de données” (datawarehouses), l’éditeur Informatica propose ses solutions d’ETL (

extract, transform, load) PowerCenter. Ces logiciels permettent d’extraire les données des sources d’information (bases de données, documents, etc.), d’effectuer des traitements ou calculs divers et de les stocker ensuite un entrepôt de données. Ces traitements se conjuguent avec d’autres solutions comme les logiciels décisionnels qui prennent ensuite le relais pour permettre aux décideurs de présenter et manipuler des données à des fins d’analyse. Le décisionnel cède la place Les mécanismes de récupération de données des ETL peuvent attaquer des dizaines de SGBD, les consolider ou les réinjecter dans d’autres bases de données. Ces outils semblent donc efficaces dans le cadre d’une migration de système ou de SGBD, ou encore pour l’intégration de données dans des systèmes hétérogènes. Mieux encore, ils ont été étudiés pour supporter des charges considérables. C’est pourquoi Informatica avait décidé il y a 18 mois de franchir le pas pour entrer sur le marché de l’intégration de données (EAI). Et apparemment avec succès puisque l’entreprise réalise 40 % de son chiffre d’affaires sur l’intégration et la migration de données en restant simplement éditeur (CA 2004 : 220 millions de dollars). D’ailleurs, la société met très peu en avant les fonctions décisionnelles « basiques » de sa solution haut de gamme, et renvoie vers les spécialistes comme Cognos, SAS,? Pour séduire les entreprises, l’éditeur propose même sa solution en location le temps d’une migration, ou encore d’une période « try & buy». Une version 8 clairement positionnée sur l’intégration Dans la nouvelle version 8 de PowerCenter, l’utilisateur peut traiter dans un même environnement les données structurées de multiples SGDB, mais aussi les informations non structurées ou semi-structurées (documents bureautiques, feuilles de calcul, PDF, etc.) Et tout cela, sans développement spécifique. Le nouveau « traitement la volée ? multisource permet de suivre quasiment en temps réel les changements et évolutions d’activité. Une panoplie de fonctions répond au besoin de sécurité et d’intégrité nécessaire aux échanges B2B. Les communications sont chiffrées, le ?grid computing’ permet de prendre du temps machine sur les serveurs moins actifs, et la haute disponibilité (failover) assure une reprise d’activité en cas de panne d’un serveur. De même, l’utilisateur peut décider où répartir les traitements : sur le SGBD source, sur le moteur Informatica, ou le SGBD cible. L’approche par modélisation des flux à partir de récupération automatique des modèles de données ou des documents évite le recours à la programmation. Toutefois, l’éditeur a ajouté la possibilité de stocker des blocs de code Java. De plus, les parties de modèles peuvent être stockées sous forme d’objets intelligents réutilisables pour améliorer la productivité. Disponible sous plusieurs plates-formes, la solution est proposée à partir de 50 000 euros. Un investissement qui se justifie difficilement chez des clients monomarque (100 % Oracle ; 100 % IBM, ou 100 Microsoft). En environnement hétérogène (y compris avec des mainframes), une comparaison s’impose avec des prestations sur mesure, et la maintenance et l’évolution nécessaires.


Auteur : José Diz
Lire la biographie de l´auteur  Masquer la biographie de l´auteur