Partagez cette page :

Le risque de modèle est une préoccupation des régulateurs du secteur bancaire, implicitement depuis longtemps, plus explicitement depuis la crise financière de 2007-2009. Les orientations et exigences sont de deux natures : normative, afin d’assurer une qualité suffisante des modèles et la pertinence de leur utilisation, et palliative, planchers et multiples destinés à compenser un éventuel biais de sous-estimation du risque, qu’il soit volontaire – arbitrage réglementaire – ou involontaire – lié au caractère imparfait par nature de tout modèle. Cette imperfection est régulièrement mise en avant pour critiquer l’usage des modèles internes, notamment aux Etats-Unis ; des enjeux concurrentiels en découlent.

Panorama des orientations et des exigences réglementaires

Normatives – le Comité de Bâle puis le règlement européen 575/2013 dit « Bâle III » ont formulé des orientations et des exigences portant sur les segments spécifiques du risque de crédit et du risque de marché (au sens de trading book) ; la Réserve fédérale a par ailleurs formulé en 2011 des Supervisory guidance on model risk management édictant des orientations plus holistiques, pouvant s’appliquer à l’ensemble des modèles présents dans un établissement financier et intégrant l’enjeu de la gouvernance des modèles.

Actuellement, la BCE conduit une analyse spécifique du risque de crédit traité en modèles internes (Target Revue of Internal Models – TRIM) afin d’identifier les améliorations nécessaires et d’harmoniser les pratiques.

Palliatives –  le règlement européen 575/2013 a introduit un plancher à la probabilité de défaut pouvant être prise en compte pour l’allocation de fonds propres sur les actions.

L’allocation de fonds propres au titre du risque de marché en méthodes internes utilise plusieurs couches de prudence, notamment l’addition d’une VaR et d’une Stressed VaR, l’ensemble faisant l’objet d’un facteur multiplicatif au moins égal à 3.

Des planchers sont en cours de discussion pour les modèles internes de risque de crédit ; dans un récent discours, M. Villefroy de Galhau indiquait : « Si un plancher d’output floor à 75 % [Fonds propres modèle interne ≥ 75% fonds propres méthode standard] n’est pas acceptable, c’est parce qu’il reviendrait à ce que ce plancher, et donc la méthode standard, devienne la contrainte pour la moitié des banques internationales. J’insiste sur le fait que notre objectif est bien de finaliser Bâle III, fondé sur des modèles améliorés mais restant sensibles au risque, non de passer à Bâle IV, qui s’appuierait sur le standard. Un accord doit donc se faire sur un niveau inférieur qui s’accompagne d’un renforcement du contrôle des modèles internes, à l’image de ce qui est engagé par le Mécanisme de Supervision Unique, l’exercice dit TRIM de revue des modèles dont nous sommes tout à fait disposés à ouvrir les résultats à des revues par les pairs. Cette position est partagée au moins par d’autres pays européens dont l’Allemagne et les Pays-Bas, comme par la Commission européenne. » Ce discours montre le souhait de prioriser l’amélioration des mesures de risques internes sur l’accumulation de dispositifs palliatifs.

Stress testing – Enfin, témoignant de la reconnaissance des faiblesses de faire dépendre la prise de décision d’un modèle unique (qu’il soit forfaitaire ou en modèle interne), le stress testing s’est développé depuis la crise financière de part et d’autre de l’Atlantique (Réserve fédérale, FMI, EBA ont imposé des calculs d’impacts de stress tests précalibrés ; des stress tests calibrés en interne sont également demandés aux banques). Il s’agit d’un axe particulièrement intéressant de gestion du risque de modèles. L’utilisation pour la prise de décision des résultats des stress tests en complément des indicateurs existants peut être considérée comme une diversification du risque de modèle.

Définitions : modèle / risque de modèle

Un modèle est défini par trois composantes : des éléments en entrée (données et hypothèses) ; un processus de transformation qui, utilisant ces informations, les convertit en estimations ; une composante de reporting, traduisant ces estimations en informations utilisables pour la prise de décision.

Les risques de modèle peuvent être rattachés à deux grandes typologies de risque habituellement cartographiées par les banques :

  • Risque opérationnel : erreurs de conception : les données de calibrage, les formules peuvent être erronées, un type de modèle retenu peut ne pas correspondre à l’objectif fixé ; erreurs d’implémentation : le code informatique, l’alimentation des données de production peuvent être erronés ; des erreurs manuelles peuvent être commises ; erreur d’utilisation : utilisation du modèle sur un périmètre pour lequel il n’a pas été conçu ; interprétation inexacte des résultats du modèle.
  • Risque financier : tout modèle est par définition une représentation schématique de son objet ; ainsi, même en l’absence d’erreur de conception, d’implémentation et d’utilisation, il existe une imprécision résiduelle dont l’ampleur constitue un risque financier.

Le risque opérationnel peut tendre vers zéro en fonction des moyens qu’on y emploie ; en revanche, le risque financier découlant de l’imperfection des modèles, s’il peut être géré, ne peut pas être autant réduit. Avant d’aborder la question de la bonne gestion de ce risque, il est utile de faire un détour par l’origine du problème et quelques exemples.

Les difficultés ontologiques

Limites de représentativité et quant à la capacité de prévision :

  • Un modèle étant une appréhension schématique du réel, il le représente mais ne l’est pas dans toute sa complexité – de même, la pomme représentée par Magritte sur son tableau « Ceci n’est pas une pomme » n’a pas toutes les qualités d’une pomme.
  • Bergson écrit dans Le possible et le réel: « Le réel et la création continue d’imprévisible nouveauté » ; « … le temps est ce qui empêche que tout soit donné tout d’un coup (…) L’existence du temps ne prouverait-elle pas qu’il y a de l’indétermination dans les choses ? Le temps ne serait-il pas cette indétermination même ? ». A l’époque de Bergson, les simulations stochastiques n’existaient pas en finance… Précisons que les simulations stochastiques utilisées dans les modèles génèrent des aléas qui suivent un ensemble d’hypothèses calibrées sur le passé et ne peuvent donc pas être qualifiées de prédictives.

Ces imperfections sont d’autant plus fortes dans le secteur financier que la réalité sous-jacente est déterminée par des interactions et comportements humains multiples et complexes.

Quelques exemples

Pour prendre la mesure des conséquences d’une foi trop grande dans un modèle :

  • Dans un secteur différent du secteur financier, le physicien Richard Feynman, ayant fait partie de la commission d’enquête sur l’explosion de la navette Challenger, a révélé une déconnexion entre la perception du risque des ingénieurs et des décideurs de la NASA. Alors que le modèle de référence (et donc valable uniquement dans le cadre des hypothèses qui le sous-tendent) estimait à 1 sur 100 000 la probabilité d’un crash (équivalent à une VaR 99,999 %), probabilité prise au pied de la lettre par les décideurs, les ingénieurs (dont on peut penser qu’ils connaissaient mieux les limites de leur modèle et la réalité physique de la navette) estimaient le risque de façon plus globale et intuitive à 1 sur 200 (soit une VaR de 99,5 %). La probabilité théorique extrêmement faible de 1 sur 100 000 a pu, par un excès de confiance, limiter l’incitation à encadrer suffisamment d’autres risques que ceux modélisés, notamment ceux liés aux moindres capacités de dilatation par temps froid des joints qui ont causé la perte de la navette.
  • Dans le secteur financier, on sait à quel point le score de diversité comme outil central de mesure du risque des titrisations par les agences de notations ne permettait pas de prendre en compte un retournement cyclique (un « AAA conditionnel à une absence de retournement cyclique » n’est pas un AAA comme les autres) ; ce jeu de passe-passe a permis au début des années 2000 de construire des produits à la rémunération apparemment très attractive en considération d’un niveau de risque présumé faible, ce qui était erroné et a incité les banques à accumuler les positions sur ces produits dans leur bilan.

Pistes d’ajustement à ces difficultés

Une fois établie la nature incomplète des modèles, quelles sont les mesures à prendre pour s’en accommoder ? Il n’est en effet pas question de se passer de modèle.

Des grands principes de bonne gestion du risque de modèle peuvent être énoncés et méritent d’être partagés au-delà du cercle des spécialistes :

  • Certains principes sont désormais universellement reconnus : cartographier les modèles, identifier les forces et limites, faire valider le modèle par une entité indépendante de celle de conception, gérer le cycle de vie du modèle (backtesting, mise à jour, obsolescence, refonte)
  • D’autres méritent d’être explicités :
    • Diversifier le risque de modèle : parfois il peut s’avérer plus efficace et plus sûr de disposer de quelques mesures complémentaires (stress tests, études de sensibilités spécifiques, avis d’expert, indicateur d’une autre nature) au modèle principal plutôt que de chercher à raffiner sans cesse le modèle principal (qui ne restera quoi qu’on fasse véritablement valable que dans le cadre des hypothèses qui le sous-tendent) ;
    • Prendre en compte l’insertion d’un modèle dans son cadre d’interaction / de dépendance avec d’autres modèles ;
    • Assurer une bonne appropriation des modèles par la gouvernance, notamment à travers la communication d’une information claire et compréhensible portant sur leurs forces et limites, leur cadre d’utilisation et de validité ; permettre une bonne articulation entre les résultats des modèles et leur utilisation pour la prise de décision notamment par la communication d’une interprétation rédigée de ces résultats.

Ainsi, la Caisse des dépôts a mis au point un document normatif regroupant l’ensemble des Principes de gestion des risques de modèle, détaillant des principes généraux, des principes détaillés pour le développement, pour la contre-analyse des modèles (validation notamment) et de gouvernance.