Uniserv célèbre ses 40 ans dans la qualité des données

Spécialiste de la qualité des données depuis 1969, l’éditeur de logiciels Uniserv  a vécu les évolutions majeures de ce marché auprès de centaines de clients en France. Entretien avec Jean-Marc Leclère, D.C. de la filiale française

Quel genre d’acteur de la qualité des données a été Uniserv depuis 1969 ?

Nous oeuvrons effectivement depuis 40 ans sur la qualité des données. À l’origine, il s’agissait essentiellement de traitements batch sur des mainframes permettant de vérifier les informations relatives aux adresses postales.

Tout cela a beaucoup évolué avec les besoins de nos clients et l’avènement de nouvelles technologies. Depuis sept ans, les solutions Uniserv combinent le batch et les traitements interactifs, et assurent le contrôle des données dès la saisie. D’ailleurs depuis trois ans, le cabinet Gartner nous positionne sur le domaine de la QDM ‘Quality data management‘).

Plus riche, l’offre est aujourd’hui composée de quatre pans :

1. l’analyse des données (diagnostic),

2. le traitement curatif en batch (correction postdiagnostic),

3. la correction et la validation à la volée (data firewalling d’après le Gartner),

4. le data monitoring.

Ce dernier consiste à définir des règles de gestion (sur les données, les types de données…), et à contrôler à la volée les données par rapport à des règles déclenchant des alertes engendrant des corrections…

Aujourd’hui Uniserv se positionne sur le processus complet : préventif comme curatif.

Mais qu’apportent vos solutions alors que les éditeurs de bases de données se dotent de modules de qualité des données ?

jmleclere_uniserv01.jpg

Grâce aux contrôles de validation et de modification automatisés, nos solutions peuvent apporter une réelle valeur ajoutée en lien direct avec les applications maison : back-office, front-office, point de vente, Web…

Nous proposons également des ‘plug-ins‘ s’intégrant très simplement à des solutions comme SAP CRM, Salesforce, Microsoft Dynamics,Siebel, etc.

Car les applications les plus belles du monde ne sont pas fiables si elles manipulent de mauvaises données. À l’instar du vieil adage informatique “Garbage In, Garbage Out” [NDLR : Déchet poubelle à l’entrée, déchet poubelle à la sortie], nous pouvons affirmer “Quality In Quality Out” !

Les éditeurs de bases de données assurent un stockage fiable de l’information, la pérennité des données, et intègrent parfois quelques règles de gestion. Nos solutions sont complémentaires, en tant qu’outils et technique de validation avant stockage et alimentation des SGBD.

Par exemple, les ETL extraient des informations des SGBD, les consolident, les restructurent et les normalisent. Nous ne sommes ni concurrents, ni incompatibles avec ces traitements.

Nous intervenons même au niveau de l’ETL : consolidation, dédoublonnage, recherche de similitudes, blacklists, etc.

Uniserv peut intervenir au niveau de l’applicatif. Par exemple, pour la saisie d’adresses postales sur un site marchand, comme voyages-sncf.com pour lequel nous validons 90 000 saisies d’adresses par jour.

Ces traitements n’impactent-ils pas les temps de réponse ?

Aujourd’hui, les technologies et la puissance des machines et des logiciels garantissent des impacts quasi imperceptibles pour ce type de traitements. Ainsi, Orange utilise nos solutions pour ses 25 000 postes de travail dans ses Boutiques Orange. Et cela est également vrai pour les traitements en batch. Ainsi, chez plusieurs de nos clients, nous assurons le contrôle en batch continu de dizaines de millions d’adresses par mois, sans perturber la production.

La qualité des données est-elle un luxe réservé aux grandes entreprises ?

La notion de qualité des données n’est pas uniquement liée à la taille de l’entreprise. C’est pourquoi nous venons de lancer une offre sur notre portail Saas Uniserv, pour favoriser l’accès aux technologies de qualité de données aux PME/PMI, à des coûts très abordables, et surtout sans investissement initial lourd.