Pour gérer vos consentements :
Categories: Cloud

Banque: un éditeur propose une solution intégrée ‘Bâle II’

Fermat, spécialiste de la gestion de risque bancaire, intègre un logiciel de modélisation, développé par Kxen, knowledge extraction engines, et propose ainsi, depuis ce 21 mars, une solution intégrée pour répondre aux obligations de Bâles II, en matière d ?évaluation des risques.

La nouvelle valeur ajoutée de l’outil réside dans la modélisation qu’il procure, explique l’éditeur qui revendique plus de clients à lui tout seul que l’ensemble de ses concurrents, sur le segment des produits liés à la conformité réglementaire. Modèle en main C’est en effet cette modélisation qui permet une prise en main qui ne dure qu’un mois environ, d’après les promesses de la société. Ce qui permet au gestionnaire de se concentrer sur le pilotage du risque. Plus besoin, donc, de dédier des statisticiens chevronnés pendant 3 à 6 mois, comme dans le cas d’outils non modélisés. Une différence qui pourrait faire revenir les établissements bancaires sur leur tradition qui consiste à développer leurs propres outils en interne. Les « outils maison » de calcul de risque lié au crédit ne sont pas nécessairement adaptables à la quantité de reporting qu’exige Bâles II, ni à ses autres demandes. Back testing Le produit de Fermat intègre une fonction de back testing, également exigée par la réglementation. En effet, il permet de comparer le risque prévu avec les pertes effectives de l’année passée, et ce, en remontant à la contribution de chaque contrat au résultat. On peut ainsi affiner le modèle, et, partant, les prévisions de l’année à venir. Concrètement, le progiciel intègre les flux des informations fournies par la banque, et restitue états et rapports d’audit. Doté d’une interface en java, le logiciel de modélisation stratégique de Kxen établit les modèles statistiques correspondant aux différentes cibles de clientèles établies par la banque. Il est basé sur un algorithme spécialisé de régression. Ce dernier permet de construire des modèles prédictifs qui génèrent des indicateurs de probabilité de défaut, et une estimation de la perte en cas de défaut, à partir des données de la banque. Et ce, quelle que soit la base de donnée de départ, Oracle ou DB2, par exemple. L’indispensable collecte de données Or, les banques de détail doivent gérer de nombreuses informations , (âge, CSP, contrats accordés, prêts à la consommation, statut marital..) qu’il est nécessaire de centraliser. Si certains établissements sont déjà très au point, aux Etats-Unis notamment, c’est loin d’être le cas de toutes les banques européennes. Un chantier qui peut prendre beaucoup de temps, indépendamment des 3 à 9 mois nécessaires à implémenter l’outil, en fonction de la taille et de la complexité de l’activité.

Recent Posts

ChatGPT : le Financial Times signe avec OpenAI

FT Group, éditeur du Financal Times, a signé un accord avec OpenAI afin d'utiliser ses…

2 jours ago

Les hyperscalers renforcent leurs recherches et datacenters pour l’IA

Au premier trimestre, Microsoft, Meta/Facebook et Alphabet/Google ont déjà investi plus de 32 milliards $…

2 jours ago

Cybersécurité : Darktrace dans l’escarcelle de Thoma Bravo

La société britannique de cybersécurité Darktrace a accepté une offre de rachat de 5,32 milliards…

2 jours ago

Étude Trends of IT 2024 : comment les managers IT développent leurs projets

Silicon et KPMG lancent la deuxième édition de l'étude Trends of IT. Cette édition 2024…

3 jours ago

Atos : l’Etat veut acquérir les activités souveraines

Le ministère de l'économie a adressé une lettre d'intention à la direction d'Atos pour racheter…

3 jours ago

Arnaud Monier – SNCF Connect & Tech : « Notre moteur, c’est l’innovation et nous procédons par incrémentation »

Directeur Technologie de SNCF Connect & Tech, Arnaud Monier lance une campagne de recrutement pour…

3 jours ago