Partagez cette page :

Un titre provocateur pour les amoureux de la statistique, et un livre important pour qui s’intéresse à la décision sur les risques et particulièrement au contrôle des risques financiers. Un livre court, passionnant et bien écrit.

L’auteur, Sylvestre Frézal, ancien élève de l’École polytechnique et de l’ENSAE, actuaire, assureur, connait ce dont il parle, et il nous a paru stimulant à variances.eu d’ouvrir un dialogue entre lui et trois autres « statisticiens ».

Sylvestre Frézal nous met en garde : notre mauvaise utilisation des statistiques dans la gestion de nos risques a des conséquences graves pour toute la société. Nous ne devrions pas mélanger les décisions sur des événements pluriels (combien de cancers parmi tous les particuliers que j’assure ?) pour lesquelles les statistiques sont parfaitement adaptées ; et les décisions sur des aléas (vais-je avoir un cancer ?) pour lesquelles les statistiques brouillent plutôt les choses.

Qui dit événements pluriels, dit moyenne et probabilités : il n’y a plus vraiment de risque. Il n’y a en effet que face à l’aléa qu’existe un vrai risque : mais la moyenne n’a alors aucun sens.

Le livre démolit notamment la théorie du portefeuille (un rendement moyen n’a pas de sens pour l’investisseur, qui ne va connaître qu’une seule période pour son investissement) ou la gestion des institutions financières de ces vingt dernières années : les banquiers ont utilisé à tort leurs modèles de gestion au jour le jour des événements pluriels (crédits, options…) pour simuler leurs risques cumulés. Résultat : une irresponsabilité des décisions, des risques collectifs énormes et un très grand confort pour les trois co-pilotes de la finance : le décideur, son conseiller et son contrôleur.

Face au seul « vrai » risque, l’aléa, Sylvestre Frézal nous appelle à de « vraies » décisions, actant la responsabilité des décideurs, prise en conscience plutôt qu’en se cachant derrière un processus. Une décision dans laquelle les décideurs assument une vision des états du monde (leurs scénarios), incluant donc forcément des filtres dans une analyse qui est partie intégrante de leur décision.

Trois spécialistes des risques financiers (également tous les trois anciens élèves de l’ENSAE 1977) dialoguent pour variances.eu avec Sylvestre Frézal : Alain Minczeles (qui a dirigé la gestion financière de la Caisse des Dépôts et Consignations), François Meunier (qui a notamment présidé l’Association des directeurs financiers) ; et Jérôme Cazes (qui préside le comité Indépendance et Transparence de l’ONG Finance Watch).

Alain Minczeles – A mort la moyenne, vive la variance ! : La différenciation entre aléa et approche plurielle que tu développes dans ton livre est particulièrement féconde. Il y a asymétrie entre celui qui souscrit une assurance et la compagnie, entre l’investisseur lambda et les marchés. Mais quid si l’investisseur est un institutionnel qui peut répéter les expériences: il a accès à tous les marchés, il peut calculer des Value at Risk, il peut raffiner en ajoutant de la CVaR, du maximum drawdown, faire du Monte-Carlo sur les hypothèses de rendement, inventer des scénarios de stress, et surtout calculer les fonds propres requis et les pertes de fonds propres dans chacun des scénarios. Un processus fondé sur une allocation d’actifs déterminée par du Monte Carlo qui minimise la perte de fonds propres n’est-il pas un bon outil d’aide à la décision ?  Le Directeur général, sur la base de cette allocation, décide alors des investissements en fonction de ses priorités (stratégiques, politiques, etc.). N’est-ce d’ailleurs pas ce que tu proposes en fin d’ouvrage ?

Sylvestre Frézal : Effectivement, si l’investisseur institutionnel peut répéter les expériences, alors il est confronté à une pluralité de résultats, la loi des grands nombres s’applique et les statistiques ont du sens : il devient pertinent, par exemple, de considérer l’espérance de rendement d’un titre pour apprécier l’opportunité d’y investir.

En revanche, même un investisseur institutionnel en capacité d’agréger les risques idiosyncratiques restera confronté à des risques vis-à-vis desquels il est en situation d’aléa. Par exemple un krach boursier ou immobilier s’il n’a pas la profondeur temporelle suffisante pour porter ses actifs sur la durée d’un cycle. Ou encore la faillite de son Etat, etc.  Dans ce cas, je ne pense pas que les statistiques, VaR, TVaR ou autres CVaR par exemple, soient d’une grande utilité.

De fait, l’enjeu n’est pas, par exemple, de savoir si la France a une chance sur 50 ou plutôt sur 200 de faire faillite dans les cinq ans. L’enjeu est de décider si on considère le risque de défaut de l’Etat français comme négligeable ou non. Et, si on le considère comme non négligeable, un second enjeu émerge : celui d’apprécier les conséquences de cet événement sur notre portefeuille et de décider si on les considère comme acceptables ou non (et de décider, dans le cas contraire, de le modifier).

Cela requiert donc bien, comme tu le proposes, d’inventer des scénarios de stress, mais des scénarios tangibles, concrets, sur lesquels le décideur doit prendre position. Non des scénarios virtuels, éthérés, issus d’une simulation de Monte-Carlo par exemple, sur lesquels le décideur ne pourra pas se positionner.

Qui plus est, l’appréciation d’une VaR ou d’une CVaR ne saurait, dans un tel cas de figure, être scientifique : supposons qu’un statisticien nous dise que la probabilité de défaut de l’Etat français dans les 5 ans est de 1/50 et un autre statisticien qu’elle est de 1/200. Dans cinq ans, l’Etat français aura fait défaut ou non… mais quoi qu’il en soit, nous serons incapables de déterminer lequel de nos deux experts avait raison et lequel avait tort.

François Meunier – Sur le pluriel et l’aléa… : On qualifie habituellement la problématique autour du risque en usant de l’opposition probable / incertain : a-t-on une loi de probabilité définie ou n’a-t-on rien du tout ? A variance finie ou non ? Sait-on si on est dans l’incertain ou pas ? Tu effectues la distinction entre aléa et pluriel, c’est-à-dire événement unique ou (très) grand échantillon, ceci dans le temps ou dans l’espace. Cette seconde distinction me paraît beaucoup moins décisive que la première, surtout limitée aux cas probabilisables. Cette lecture est-elle correcte ?

Sylvestre Frézal : Effectivement, le distinguo entre risque (probabilisable) et incertitude (non probabilisable) et celui entre situations plurielles et aléa ont des adhérences. Mais la distinction entre risque et incertitude me semble passer à côté du vrai enjeu : celui du point de vue de l’observateur.

Dans le cas d’une assurance par exemple, la différence fondamentale entre l’assureur et l’assuré est que l’un sait ce qu’il va se passer (son portefeuille est suffisamment large pour que la loi des grands nombres s’incarne en un futur déterministe), alors que l’autre l’ignore (va-t-il ou non subir un sinistre ?). Cette ignorance qu’a l’assuré de son futur est bien plus cruciale, dans sa prise de décision, que le fait qu’il connaisse ou ignore la probabilité associée à cet aléa.

Surtout, en pratique (sauf si on joue aux dés ou qu’on observe une expérience quantique), une situation d’aléa est toujours une situation d’incertitude : puisque nous sommes confrontés une seule fois (ou un faible nombre de fois) à l’événement, celui-ci est nécessairement un cas particulier, associé à des circonstances uniques. Dans ce cadre, il n’est pas possible de déterminer objectivement une classe de référence d’événements analogues sur laquelle on pourrait déterminer une statistique.

Ainsi, la notion de risque probabilisable est à mes yeux factice. C’est une vue de l’esprit artificielle qui consiste à plaquer sur l’individu qui subit l’aléa la vision de celui qui, parce qu’il est confronté à une pluralité d’événements, peut calculer (et s’appuyer sur) des statistiques. De deux choses l’une :

  • si vous pouvez probabiliser, c’est que vous êtes confronté à une pluralité déterministe (d’événements individuellement aléatoires) : il n’y a alors pas de risque.
  • Et si vous êtes confronté à un unique événement aléatoire, celui-ci ne sera pas probabilisable (précisément parce qu’il est unique et qu’il n’a donc pas d’alter ego autres que ceux qu’une personne extérieure aura, subjectivement – vu sa position –, déclarés comme tels).

François Meunier – La réponse au problème du risque encouru lié à l’événement rare pour soi d’un événement probabilisable, cela s’appelle fonds propres, VaR, assurance, niveau de richesse, aversion au risque… Pour critiquer la moyenne ? Oui, si ma maison brûle, ça me fait une belle jambe de savoir que je suis tombé dans les 0,03% de cas défavorables. Pour autant, ce 0,03% est une vraie référence. Je sais que l’assureur connaît cette probabilité de 0,03% « presque sûrement ». Si la concurrence est effective sur le marché de l’assurance, c’est bien le prix, la « prime pure », que j’obtiendrais et qui me couvrira (un grand « si », j’admets). S’il y a une variance non nulle, l’assureur me chargera le coût de sa propre assurance, c’est-à-dire de ses fonds propres.

Sylvestre Frézal : Oui, ce 0,03% est une vraie référence… une vraie référence pour l’assureur confronté à une pluralité de contrats, car cela lui permet d’équilibrer globalement son tarif, donc de vivre et de poursuivre son activité. Mais pour moi, assuré, quelle importance ? Je ne choisis pas de m’assurer selon que cela est rentable ou non pour l’assureur. Comme lorsque j’achète un produit de luxe grassement margé ou à l’inverse une baguette ou un billet de train largement subventionné : je regarde leur prix (qui m’intéresse), mais je ne me préoccupe pas de leur coût de production (dont je n’ai que faire). Je choisis de m’assurer selon que je crains ou non d’avoir un grave problème, et que j’accepte ou non d’en subir les conséquences associées. Et cela ne dépend pas du fait que la probabilité soit de 0,03% ou de 0,04% ; d’ailleurs, personne ne connait ainsi ses probabilités individuelles de sinistre !

Jérôme Cazes – Rendre possible le pilotage d’organisations trop grandes ? Tu aurais pu envisager une autre raison du succès des nouvelles règlementations que le confort qu’elles donnent aux différents acteurs. Ne crois-tu pas qu’elles sont la conséquence inéluctable d’organisations trop grandes et trop complexes pour être pilotées autrement que par des processus basés sur des concepts simplistes. Ton appel convaincant à Bergson, d’abandonner la conceptualisation pour revenir à la perception, n’est peut-être plus possible dans une grande banque dont la direction est humainement incapable de connaître la réalité de tous ses risques ?

Sylvestre Frézal : Effectivement, la taille de certains organismes rend sans doute inéluctable le recours à des outils synthétiques, outils qui par construction reposent sur une grille d’analyse donnée, donc sur des concepts qui éloignent de la perception directe.

Chaque décision est prise à un certain niveau, embrasse un champ plus ou moins large (fonction de ce niveau), et brasse des enjeux d’ordre de grandeur plus ou moins élevé (également fonction de ce niveau). Il faut alors distinguer les statistiques permettant de mesurer l’existant (celles d’un contrôle de gestion par exemple), des statistiques de projection de futurs potentiels (les espérances, volatilités ou VaR de la réglementation prudentielle ou de directions des risques). A chaque niveau, les statistiques permettent de mesurer l’existant et offrent ainsi une vision utile. En revanche, quand il s’agit de futurs potentiels, face à l’incertain, mieux vaut à mon sens réduire l’analyse à quelques scénarios identifiés (chacun portant son lot d’innombrables simplifications et hypothèses sous-jacentes) plutôt que d’ambitionner « tout capter » par des statistiques de risques virtuelles…


« Quand les statistiques minent la finance et la société -Risque, responsabilité et décision » de Sylvestre Frézal (2005), aux éditions L’Harmattan 2018