Banque: un éditeur propose une solution intégrée ‘Bâle II’

Fermat, éditeur spécialisé dans la gestion de risque bancaire, propose une solution clés en main pour répondre aux obligations de Bâle II

Fermat, spécialiste de la gestion de risque bancaire, intègre un logiciel de modélisation, développé par Kxen, knowledge extraction engines, et propose ainsi, depuis ce 21 mars, une solution intégrée pour répondre aux obligations de Bâles II, en matière d ?évaluation des risques.

La nouvelle valeur ajoutée de l’outil réside dans la modélisation qu’il procure, explique l’éditeur qui revendique plus de clients à lui tout seul que l’ensemble de ses concurrents, sur le segment des produits liés à la conformité réglementaire. Modèle en main C’est en effet cette modélisation qui permet une prise en main qui ne dure qu’un mois environ, d’après les promesses de la société. Ce qui permet au gestionnaire de se concentrer sur le pilotage du risque. Plus besoin, donc, de dédier des statisticiens chevronnés pendant 3 à 6 mois, comme dans le cas d’outils non modélisés. Une différence qui pourrait faire revenir les établissements bancaires sur leur tradition qui consiste à développer leurs propres outils en interne. Les « outils maison » de calcul de risque lié au crédit ne sont pas nécessairement adaptables à la quantité de reporting qu’exige Bâles II, ni à ses autres demandes. Back testing Le produit de Fermat intègre une fonction de back testing, également exigée par la réglementation. En effet, il permet de comparer le risque prévu avec les pertes effectives de l’année passée, et ce, en remontant à la contribution de chaque contrat au résultat. On peut ainsi affiner le modèle, et, partant, les prévisions de l’année à venir. Concrètement, le progiciel intègre les flux des informations fournies par la banque, et restitue états et rapports d’audit. Doté d’une interface en java, le logiciel de modélisation stratégique de Kxen établit les modèles statistiques correspondant aux différentes cibles de clientèles établies par la banque. Il est basé sur un algorithme spécialisé de régression. Ce dernier permet de construire des modèles prédictifs qui génèrent des indicateurs de probabilité de défaut, et une estimation de la perte en cas de défaut, à partir des données de la banque. Et ce, quelle que soit la base de donnée de départ, Oracle ou DB2, par exemple. L’indispensable collecte de données Or, les banques de détail doivent gérer de nombreuses informations , (âge, CSP, contrats accordés, prêts à la consommation, statut marital..) qu’il est nécessaire de centraliser. Si certains établissements sont déjà très au point, aux Etats-Unis notamment, c’est loin d’être le cas de toutes les banques européennes. Un chantier qui peut prendre beaucoup de temps, indépendamment des 3 à 9 mois nécessaires à implémenter l’outil, en fonction de la taille et de la complexité de l’activité.