Pour gérer vos consentements :
Categories: Logiciels

La survie de l’analytique par les processus métier

Si vous deviez avancer trois bonnes raisons pour adopter la nouvelle version 9.2 de SAS, lesquelles choisiriez-vous ?

En premier lieu, nous avons développé ou amélioré plus de 200 fonctions afin de répondre plus efficacement aux attentes des entreprises cherchant à mieux appréhender leurs activités (modélisation, possibilités prévisionnelles…). Par ailleurs, nous avons fortement optimisé et simplifié la visualisation et l’intégration des données. Avec cette nouvelle version, l’entreprise pourra très facilement concevoir des fonctions de prévision du type : quelle sera l’affluence sur un événement en fonction de la météo, du profil des personnes invitées ou des habitants des environs ? Cela est rendu possible par l’utilisation simplifiée et assistée permettant de combiner (en toute transparence) des services Web et des données.

Troisième point important de SAS 9.2, nous avons augmenté les performances, la sécurité et l’administration de la solution. Ainsi, nous sommes compatibles avec les standards d’administration, permettant d’interfacer simplement SAS avec des solutions comme Tivoli ou OpenView, entre autres.

Que pensez-vous du rapprochement de l’EIM (Enterpise information Management) et de la BI, et des multiples accords entre acteurs de la BI et Google, par exemple ?

Chez Teradata, nous développons les partenariats avec des acteurs de ce marché, à l’image de Documentum pour lequel nous proposons des fonctions d’analyse. Certes, ils possèdent aussi des fonctions de ce type. Mais les nôtres sont essentiellement axées Business Intelligence, et cela fait sens et ajoute de la valeur pour la solution du client. En outre, nous appliquons ces possibilités de datamining et de text-mining aussi bien sur les données que sur l’information non structurée. Par ailleurs, nous avons nous aussi un partenariat avec Google. C’est une solution intéressante pour indexer une très grande quantité d’information non structurée, en s’appuyant sur le texte et les métadonnées. Cependant, les grands volumes augmentent les possibilités de perdre en pertinence. D’où l’intérêt de technologies comme le text-mining qui améliore sensiblement les résultats, et diminue les phénomènes de bruit.

Quelles tendances fortes constatez-vous dans l’informatique analytique ?

En premier lieu, les technologies analytiques ne connaîtront de succès que si elles prennent en compte et s’intègrent aux processus métier des entreprises. Et cette tendance, à laquelle nous participons fortement, est irréversible. En effet, si vous disposez de bases de données “propres” et pertinentes, mais que le contexte est vicié, les reportings et tableaux de bord seront forcément erronés. Et réciproquement.

Par ailleurs, je pense que le marché se dirige vers un stockage spécifique par métier et par domaine, qu’il intervienne au niveau des bases de données ou du datawarehouse. En effet, parfois les décisions nécessitent l’accès ou l’agrégation à de multiples informations, et il s’avère alors primordial de pouvoir compter rapidement sur des modèles spécialisés et fiables avant de prendre des décisions.

Recent Posts

Legapass : comment protéger ses données privées jusque dans l’au-delà

Comment gérer les données numériques après la mort de son détenteur ? La jeune pousse…

23 heures ago

Iris, un assistant d’IA conversationnelle en langue des signes

Ivès, expert en accessibilité de la surdité, s’est associé à Sopra Steria et à IBM…

1 jour ago

GenAI : le Royaume-Uni poursuit ses investigations sur les partenariats de Microsoft et Amazon

L'Autorité de la concurrence et des marchés (CMA) a lancé la phase de recherche de…

2 jours ago

Clients de VMware : les raisons de la colère

Broadcom remplace pas moins de 168 logiciels VMware par deux grandes licences de location correspondant…

2 jours ago

Laurent Carlier – BNP Paribas Global Market : « L’IA permet de modéliser des relations plus complexes, mais il faut rester prudent »

La banque d’investissement utilise l'IA pour proposer des stratégies individualisées, en termes de rendement et…

2 jours ago

Open Compute Project : les datacenters partagent des bonnes pratiques pour l’environnement

OVHCloud partage ses efforts environnementaux au sommet de l’Open Compute Project qui se tient à…

3 jours ago