Pilotage des risques : passer du contrôle à l’anticipation (1)

Avis d’experts sur le pilotage des risques dans les établissements financiers, par Philippe Deniau, associé Keyrus Management et responsable du secteur Banque / Assurance, et Axel Maraut, manager Keyrus Management.

Les établissements financiers doivent adapter la gestion de leurs risques au contexte de marché actuel et aux nouvelles exigences réglementaires. Plus que jamais, l’efficacité du pilotage des risques s’affirme comme un levier majeur de performance. Dès lors, les dispositifs de reporting doivent intégrer une dimension prospective pour devenir un outil d’aide à la décision et permettre aux établissements de mieux anticiper les risques et faire évoluer leur ‘business model’ en conséquence.

Ils doivent adapter la gestion de leurs risques au nouveau contexte réglementaire, réponse des régulateurs nationaux et internationaux à l’enchainement des récentes crises financières (subprimes, liquidité…) et économiques (dettes souveraines…). Tous les établissements ont aujourd’hui engagé des efforts significatifs en vue de renforcer leurs fonds propres et leurs réserves de liquidité. Néanmoins, les dispositifs de pilotage des risques en place ne reflètent pas complètement le niveau de risque réel et, surtout, ne permettent pas aux dirigeants de disposer de tous les éléments d’anticipation requis.

Optimiser la vision actuelle des risques grâce à un reporting on time, juste et pertinent

Dans ce contexte de plus en plus exigeant, l’efficacité du pilotage des risques s’affirme pourtant comme un levier majeur de la performance de l’établissement, en complément des éléments constitutifs de la rentabilité.

Pour progresser vers cet objectif, le pilotage des risques doit avant tout répondre à deux enjeux : s’inscrire dans la stratégie globale de l’établissement et refléter le plus fidèlement possible les risques inhérents aux activités.

Schématiquement les établissements déterminent leur appétit aux risques au regard de leurs objectifs stratégiques, notamment en fixant des limites et des seuils de tolérance (par exemple des ratios de concentration ou de fonds propres) à respecter dans le cadre des activités courantes. Il en découle la définition d’une batterie d’indicateurs de suivi mesurant l’écart entre le profil de risques de l’établissement et les limites et seuils fixés. Produits régulièrement et restitués sous forme de tableaux de bord, les indicateurs de risques alimentent les reportings à destination des instances de pilotage telles que le comité des risques ou le comité exécutif.

Dans les faits, la fiabilité de ces reportings représente un enjeu opérationnel majeur. Un constat fréquent est que les indicateurs fournis à ces instances ne couvrent pas l’ensemble des risques sur toutes les activités et zones géographiques. De plus, les dispositifs de reporting ne garantissent généralement pas la cohérence entre les indicateurs de risques macro (au niveau de l’établissement) et les indicateurs micro, au niveau des portefeuilles et des activités. En conséquence, le suivi du profil de risque de l’établissement comme résultat de la stratégie mise en œuvre reste imparfait.

Définir des indicateurs de risques adéquats

Une première étape d’optimisation du pilotage est de mettre en phase les indicateurs de risques avec la stratégie, la difficulté étant d’assurer la cohérence entre une vision micro et une vision agrégée pour les instances de décision.

A cette fin, la Direction des risques doit travailler avec les différentes parties prenantes (lignes métiers, entités locales, comités des engagements…) pour définir les indicateurs, leur maille et les règles de calcul nécessaires à l’obtention d’une vision fidèle et cohérente des risques encourus.

Mettre en place un dispositif de reporting efficace

Une fois les indicateurs précisément définis, la seconde étape consiste à assurer leur production de façon régulière et fiable grâce à la mise en place d’un dispositif de reporting efficace. Un tel dispositif repose sur trois piliers :

  • l’identification des données sources au niveau de maille requis pour le calcul des indicateurs de risques ;
  • la gestion de la qualité des données sources permettant de s’assurer qu’elles présentent l’exhaustivité, l’exactitude et la disponibilité souhaitées ;
  • la remontée des données mises en qualité et leur centralisation dans un entrepôt dédié où les calculs d’indicateurs seront industrialisés et stockés.

Les données sont le reflet de l’activité de l’établissement et constituent un actif essentiel qu’il convient de valoriser sous forme d’information intelligente pour faciliter l’aide à la décision et le pilotage. Ainsi, une attention particulière doit être accordée à la qualité des données sources qui conditionne l’efficacité de tout le dispositif. L’expérience montre que confier aux business units locales la responsabilité du contrôle de la qualité des données fournies est un bon moyen pour fiabiliser progressivement les données au fil du temps : c’est en corrigeant les données erronées dans les systèmes de gestion locaux qu’on évite leur propagation et la reconduction d’erreurs.

Pour autant, les données doivent subir de nouveaux contrôles en central avant de pouvoir être utilisées dans le calcul des indicateurs. De plus, la gestion des rejets et des anomalies doit faire l’objet de processus organisationnels local / central définis précisément et aboutissant à la mise de place de règles de gouvernance des données.

Pour renforcer la fiabilité des indicateurs, il est aussi primordial que les données sources utilisées soient cohérentes avec celles de la comptabilité. Pour atteindre cet objectif, les établissements doivent définir des processus de collecte des informations qui comportent au moins deux niveaux de contrôle et d’ajustement.

Le premier niveau de contrôle repose sur une récupération des informations chiffrées commune avec l’interface comptable, une piste d’audit conservant la correspondance entre flux comptables et flux risques. Ces informations sont ensuite enrichies de données de nature non comptable de façon à obtenir l’ensemble des données nécessaires au reporting des risques. Un traitement de rapprochement entre comptabilité générale et données risques boucle le dispositif de contrôle en permettant de calculer, visualiser et corriger les écarts à la maille définie.

En termes de technologie, le cœur du dispositif de reporting est constitué d’un entrepôt de données (et des datamarts associés) dont la structure doit permettre d’agréger les données, de produire les indicateurs et d’analyser les risques en vision multi-axes. Par exemple, les crédits doivent pouvoir être examinés par catégorie de clientèle, par secteur économique, par classe de notation, par type de produits, etc.

La restitution de ces informations fait appel à deux grands types d’outils complémentaires aux usages différents : les plate-formes décisionnelles, dont les établissements financiers sont généralement équipés, et les outils dynamiques de discovery et self-service.

Les plates-formes décisionnelles assurent le plus souvent la production des reportings périodiques standardisés destinés aux différents comités ou aux régulateurs. A ce stade, le processus de reporting doit être défini précisément et prévoir les enchainements et ordonnancement des tâches (ex. production de tableaux, rédaction des analyses…) afin d’être en mesure d’assurer une production et une diffusion fiables dans le respect des délais et d’éviter la prolifération de reportings redondants. Il est également essentiel de définir clairement les rôles et responsabilités de chaque acteur (ex. administrateur, responsable production, responsable validation & analyse…).

Les outils de discovery et self-service, plus souples et réactifs, permettent d’analyser les données à la volée, par exemple pour comprendre l’évolution d’un indicateur spécifique sur une période et un périmètre donnés. Ils peuvent être mis directement à la disposition du middle management, notamment pour gérer des situations urgentes ou de crise, fournir des analyses ad hoc… Très flexibles, ils permettent aux utilisateurs métier de s’approprier les données et de conduire les analyses complémentaires dont ils ont besoin.

A suivre, la seconde partie de notre avis d’experts, l’intégration d’une dimension prospective au reporting, la création d’un environnement de simulation conçu pour la prise de décision et l’anticipation des évolutions du business model.


Voir aussi

Silicon.fr étend son site dédié à l’emploi IT
Silicon.fr en direct sur les smartphones et tablettes