Le test de P&L Attribution (PLAT)

En face des risques pris par les banques, un niveau de fonds propres fonction de ces risques doit être respecté afin de garantir la solidité de ces banques face aux chocs de diverses natures.

Le comité de Bâle définit des standards pour le calcul du montant minimum de fonds propres (OFR comme Own Funds Requirements) dont elles doivent disposer en permanence pour faire face à ces risques par catégories (crédits, marchés ou opérationnels). Ces standards sont ensuite transposés en lois par les législateurs de chaque pays (ou par les instances européennes dans le cas de l’UE).

Pour calculer ces OFR, les banques peuvent opter soit pout un modèle interne d’évaluation des risques, soit pour un modèle dit « standard ».
Rappelons tout d’abord quelques éléments sur ces deux solutions :

  • L’approche standard (SA comme Standardised Approach) : fortement décrite dans la réglementation, cette méthode est en général plus simple à implémenter et ne nécessite pas ou peu de décision méthodologique interne aux banques. Cependant la charge en capital qui en découle est très généralement plus importante que la deuxième méthode. C’est la solution par défaut.
  • L’approche par modèle interne (IMA comme Internal Model Approach) : la réglementation donne un cadre général, moins détaillé, via lequel les banques peuvent calculer avec un modèle propre la charge en capital. Elle est plus difficile et plus coûteuse à implémenter, nécessite la définition de méthodologies internes et peut conduire à recourir à des proxys, c’est-à-dire des simplifications par rapport aux modèles utilisés dans la valorisation officiel des portefeuilles pour le suivi du résultat. Comme les établissements mettent en place leur propre modèle, ils doivent en contrepartie prouver la qualité de leur modèle.

Ces deux approches ont pour but de calculer un montant de perte maximale sur un horizon de temps. La SA est plus générique et, dans la très grande majorité des cas, est un majorant par rapport à l’IMA.

L’IMA est en général préférée par les banques car elle aboutit à des OFR plus faibles. En fonction des types d’activité, cette différence peut être minime ou réduire de moitié la charge en capital, voire davantage. Certaines activités pourraient ne plus être rentables si leurs OFR étaient calculés en SA.
En complément, comme le calcul est issu d’un modèle déterminé en interne par chaque établissement, il est plus fin et plus lié aux risques spécifiques des banques.

Mais pour que la banque soit autorisée à utiliser un calcul par l’approche IMA, chaque méthode doit être homologuée par les autorités compétentes. Cette homologation nécessite la constitution d’un dossier spécifique, des contrôles internes et externes et le suivi régulier de l’adéquation des modèles aux risques.
Cette homologation peut être partielle et ne concerner que certaines activités d’une banque, les autres devant être calculées par la méthode standard.

FRTB (Fondamental Review of Trading Books), qui est un nouveau standard de calcul des fonds propres pour risques de marché, amène de nombreux changements pour les banques.
Cette réforme, fait partie des initiatives réglementaires visant à renforcer le système financier. Elle permet notamment de ségréguer plus distinctement le banking book du trading book d’une part, d’affiner les méthodes de modèles internes par une prise en compte plus granulaire des risques et de pallier l’insuffisance des modèles internes à capturer les risques extrêmes en remplaçant la Value at Risk[1] (VaR) par des Expected Shortfalls [2](ES).
Ce nouveau standard n’est pas encore en application, la date de calcul des OFR en mode FRTB n’est pas encore connue et pourrait être appliquée entre 2023 et 2025.

Outre la revue en profondeur les approches standards et les approches par modèles internes, avec FRTB le test de P&L Attribution (PLAT) a été créé pour renforcer les tests réglementaires contrôlant l’adéquation du modèle de risque aux véritables risques des activités  de trading.

Pour pouvoir calculer leurs OFR, en plus de l’homologation, chaque activité de trading (trading desk) devra passer avec succès le PLAT sous peine de se voir infliger un ajout à la charge en capital, voire en cas d’échecs répétés un passage au calcul en SA.

Le principe du PLAT est de comparer le P&L calculé par les systèmes et méthodologies produisant le résultat officiel et un P&L calculé spécifiquement pour ce test avec ceux du modèle d’IMA.
En d’autres termes, le P&L est le premier indicateur des risques puisqu’il est une mesure de leur réalisation. Si le système de risques des banques ne donne pas un P&L assez proche de l’officiel, il n’est donc pas assez représentatif des véritables risques des desks. Avec le PLAT, il s’agit intuitivement de vérifier que le modèle interne capte bien l’ensemble des sources significatives de P&L de chaque desk.

Mathématiquement, le test correspond à un calcul de corrélation de Spearman et à un test de Kolmogorov-Smirnov (ce dernier pour éprouver l’adéquation des distributions entre les deux P&L).
A noter que le test FRTB a été revu en 2019, changeant entre autres le calcul du PLAT qui se basait précédemment sur les moyennes et variances des écarts entre les deux P&L.

Le PLAT pousse les banques à s’améliorer

Le PLAT permet de couvrir deux enjeux : la bonne modélisation des facteurs de risques ainsi que la limitation des simplifications et écarts de valorisation.

Le principe de l’IMA est de faire subir un choc à chacun des facteurs de risques pour déterminer un montant de perte maximale des desks. En pratique, toutes les données de marché ne subissent pas pour autant un choc. Les raisons sont multiples : manque d’historiques des données, non implémentation dans les systèmes de risque, simplification des structures (courbes de taux, nappes de volatilités, …) ou autre.

Le PLAT vérifie que les facteurs de risques ne subissant pas de chocs ne génèrent pas un P&L significatif et donc que leur omission dans le modèle ne pollue pas la vision des risques.

De plus, dans le calcul de l’IMA, les banques peuvent choisir de ne pas utiliser les mêmes méthodes de valorisation que pour le calcul officiel de P&L. Cela peut venir d’un choix délibéré de mettre en place une vision contradictoire de la valorisation en recourant à un système indépendant du front office. Cette décision peut aussi être liée à des limitations techniques. Pour permettre de calculer les nombreux indicateurs nécessaires (en forte augmentation avec FRTB) dans un temps acceptable, il peut être nécessaire de réduire la précision des calculs (réduction des pas en simulation de Monte Carlo, utilisation d’un calcul en sensibilités, approximation via des grilles de stress tests, …).

Là encore le PLAT permet de capturer l’impact de ces différences sur l’adéquation du système de risque au calcul de l’IMA.

La réglementation actuelle laisse aux banques le choix de la méthode pour prouver la qualité de leurs calculs, les autorités compétentes challengeant par la suite la qualité de la preuve.
FRTB ne laisse plus autant de liberté aux banques, le PLAT est une standardisation de la preuve imposée aux banques, dans son mode de calcul et dans son interprétation. De plus, la première version du test (avant sa revue en 2019) était considérée comme difficilement atteignable, de par ses formules comparant les moyenne et variances relatives des écarts et les ratios associés (10% et 20%).Les banques ont donc dû se remettre en question et s’interroger sur la qualité de leur modèles et systèmes.

Bien que le nouveau texte FRTB ait revu la définition du test, l’effet bénéfique est toujours là : les banques n’ont pas juste mis en place des programmes pour calculer de nouvelles métriques. En fonction d’évaluations internes de l’existant avec un œil plus critique que précédemment, elles ont dû revoir, parfois en profondeur, les maillons faibles de leur chaine :

  • Les modèles de facteurs de risques : meilleure gestion des historiques, alignement des structures, …
  • Les modèles économétriques : limitation de l’utilisation de proxy/projection sur des indices, prise en compte de facteurs de risques considérés comme mineurs (parfois à tort), …
  • Les modèles de valorisation : optimisation des chaines de calculs pour permettre une augmentation des précisions de calcul, alignement des librairies de calcul, …

Dans ce sens nous pouvons dire que le PLAT a déjà atteint son objectif : les banques s’améliorent.

Limitations et effets contreproductifs

Pour autant le PLAT n’est pas une solution sans défaut, loin de là.

Les nouvelles formules du PLAT dans le texte FRTB de 2019 limitent l’un des effets le plus vicieux du PLAT : plus le desk est couvert, plus les risques résiduels sont non significatifs au vu de l’activité du desk et donc peuvent ne pas être parfaitement modélisés. Ce type de desk se retrouverait donc à ne pas passer le test directement à cause de sa bonne gestion de ses risques, les P&L étant générés principalement au quotidien par ces risques résiduels mais pour des montants faibles comparés à la taille des portefeuilles. Pour réduire sa charge en capital, il faudrait donc être mal couvert, ce qui n’est pas souhaitable.
Le nouveau test limite cet effet : en effet, il y a plus de chance que sur un an la distribution du P&L soit tout de même liée à l’activité principale du desk. Toutefois ce n’est pas forcément le cas et le défaut reste présent.

Le PLAT ne permet pas de prouver l’adéquation du système de risque en période stressée. Par définition, le test compare les P&L des desks sur la dernière année. Or le calcul de la charge en IMA inclut la prise en compte d’une période dite stressée (la pire période historique au vu des positions de la banque). Donc si le modèle de risque ne capte pas assez bien des facteurs de risques stables dans l’année passée mais ayant déjà subi de forts chocs de marché, le PLAT ne montrera pas ce défaut.
Le PLAT ne libère pas les banques de devoir prouver la qualité de leurs modèles par des méthodes internes (et le superviseur de challenger leur preuve).

Enfin le PLAT risque d’avoir dans le temps un effet de blocage dans l’amélioration des systèmes de banques et va pousser les acteurs de la place à évoluer en dehors des données officielles. En effet les marchés évoluent, la compréhension par les desks des effets générant du P&L s’améliore (la prise en compte des Credit Support Annex – accords de compensation et d’échange de collatéral – par exemple), les nouvelles technologies permettent d’avoir plus de puissance machine et de stockage des données permettant de mettre en pratique des modèles plus complexes. Bref les choses changent, dans le bon sens, pour permettre aux banques de mieux suivre leurs risques.

Mais que se passera-t-il lorsqu’une banque souhaitera faire évoluer ses systèmes et ses pratiques ? En général, il y a d’abord une analyse en dehors des systèmes, puis le front office et le risk management apprennent à valoriser ce risque, puis à le couvrir en avance de phase, puis le P&L officiel est impacté quand les systèmes de valorisation évoluent, puis enfin les systèmes de risques évoluent à leur tour.

Avec FRTB et le PLAT, le P&L officiel ne pourra pas prendre en compte ce nouveau risque tant que le système de risque ne le prendra pas également en compte. Sinon la banque se verra sanctionner par un échec dans le PLAT et donc un passage en méthode standard et une augmentation de sa charge en capital. Sanction car le P&L est en avance et que la volonté est de refléter ce nouveau risque le plus rapidement possible dans les comptes.

Nous allons dans ce cas nous retrouver avec des institutions obligées de piloter ce nouvel effet en dehors de leurs données officielles, en attendant de pouvoir faire évoluer toutes leurs chaines en même temps. Toute évolution de système et de pratique d’un desk doit dorénavant s’envisager en intégrant les contraintes du PLAT, ce qui risque de nuire à l’innovation et à l’amélioration des systèmes qui n’avaient jusque-là pas cette contrainte.

En conclusion, le PLAT est une très bonne chose pour faire évoluer les banques et standardiser la preuve de qualité des modèles internes, mais les défauts de ce test n’auront-ils pas un effet néfaste compensant tout le bien qu’il apporte ? La question reste ouverte.


[1] Value at Risk : Quantile des pires pertes potentielles sur un horizon de temps

[2] Expected Shortfalls : Moyenne des pires pertes potentielles sur un horizon de temps au-delà d’un quantile donné

Guillaume Bidou