La survie de l’analytique par les processus métier

Logiciels

Keith Collins, Chief Technology Officer (directeur technique) chez SAS, revient sur la version 9.2 de SAS annoncée à San Antonio, et sur les tendances fortes du secteur

Si vous deviez avancer trois bonnes raisons pour adopter la nouvelle version 9.2 de SAS, lesquelles choisiriez-vous ?

En premier lieu, nous avons développé ou amélioré plus de 200 fonctions afin de répondre plus efficacement aux attentes des entreprises cherchant à mieux appréhender leurs activités (modélisation, possibilités prévisionnelles…). Par ailleurs, nous avons fortement optimisé et simplifié la visualisation et l’intégration des données. Avec cette nouvelle version, l’entreprise pourra très facilement concevoir des fonctions de prévision du type : quelle sera l’affluence sur un événement en fonction de la météo, du profil des personnes invitées ou des habitants des environs ? Cela est rendu possible par l’utilisation simplifiée et assistée permettant de combiner (en toute transparence) des services Web et des données.

Troisième point important de SAS 9.2, nous avons augmenté les performances, la sécurité et l’administration de la solution. Ainsi, nous sommes compatibles avec les standards d’administration, permettant d’interfacer simplement SAS avec des solutions comme Tivoli ou OpenView, entre autres.

collins_keith_web_pic_28feb06.jpg

Que pensez-vous du rapprochement de l’EIM (Enterpise information Management) et de la BI, et des multiples accords entre acteurs de la BI et Google, par exemple ?

Chez Teradata, nous développons les partenariats avec des acteurs de ce marché, à l’image de Documentum pour lequel nous proposons des fonctions d’analyse. Certes, ils possèdent aussi des fonctions de ce type. Mais les nôtres sont essentiellement axées Business Intelligence, et cela fait sens et ajoute de la valeur pour la solution du client. En outre, nous appliquons ces possibilités de datamining et de text-mining aussi bien sur les données que sur l’information non structurée. Par ailleurs, nous avons nous aussi un partenariat avec Google. C’est une solution intéressante pour indexer une très grande quantité d’information non structurée, en s’appuyant sur le texte et les métadonnées. Cependant, les grands volumes augmentent les possibilités de perdre en pertinence. D’où l’intérêt de technologies comme le text-mining qui améliore sensiblement les résultats, et diminue les phénomènes de bruit.

Quelles tendances fortes constatez-vous dans l’informatique analytique ?

En premier lieu, les technologies analytiques ne connaîtront de succès que si elles prennent en compte et s’intègrent aux processus métier des entreprises. Et cette tendance, à laquelle nous participons fortement, est irréversible. En effet, si vous disposez de bases de données “propres” et pertinentes, mais que le contexte est vicié, les reportings et tableaux de bord seront forcément erronés. Et réciproquement.

Par ailleurs, je pense que le marché se dirige vers un stockage spécifique par métier et par domaine, qu’il intervienne au niveau des bases de données ou du datawarehouse. En effet, parfois les décisions nécessitent l’accès ou l’agrégation à de multiples informations, et il s’avère alors primordial de pouvoir compter rapidement sur des modèles spécialisés et fiables avant de prendre des décisions.