Cet article est la deuxième partie de la présentation du prix du meilleur mémoire d’actuariat de l’ENSAE (Promotion 2023). La première partie de l’article est disponible ici.


 

MAXIME LENOIR

« Mesure et prise en compte du risque inflation dans le provisionnement en assurance construction »

 

Pourriez-vous décrire les principaux objectifs de votre mémoire ainsi que les résultats que vous souhaitez souligner ?

L’assurance construction décennale est atypique dans le paysage de l’assurance IARD. Elle est régie par un cadre réglementaire qui lui est propre, car les risques auxquels sont exposés les assureurs sont nombreux et spécifiques: développement de nouvelles techniques de construction, durée de couverture décennale, gestion en capitalisation, etc. Dans le cadre du provisionnement en assurance construction, les méthodes sont adaptées pour prendre en compte ces risques, et nécessitent d’estimer principalement deux provisions : la Provision pour Sinistres A Payer (PSAP) et la Provision pour Sinistres Non Encore Manifestés (PSNEM). Cependant, un risque important est souvent négligé dans le provisionnement, car il n’est pas explicitement abordé par les différentes normes en vigueur si ce n’est dans la nécessité d’estimer les provisions avec prudence : il s’agit du risque inflation.

Depuis 2020, une succession d’événements importants (crise de la Covid, crise énergétique, guerre en Ukraine) a mené à un contexte de forte inflation, qui détonne avec l’inflation observée lors des 10 dernières années. Ce constat est problématique pour les assureurs, étant donné que la plupart des modèles de provisionnement classiques ne prennent pas en compte explicitement le risque inflation, et considèrent que l’inflation future sera le reflet de l’inflation passée. De plus, les garanties longues comme l’assurance décennale exposent davantage les assureurs à l’inflation. Aussi, le secteur de la construction est en proie à des crises fréquentes en étroite relation avec le contexte économique sous-jacent, et l’inflation sectorielle peut se montrer plus sensible à ces crises que l’inflation globale.

Face à ces observations, il semble inévitable pour les assureurs, et d’autant plus pour ceux proposant des garanties décennales, de s’intéresser à la prise en compte du risque inflation dans leurs modèles de provisionnement. L’enjeu de ce mémoire est d’étudier la mesure et la prise en compte de ce risque dans le provisionnement en assurance construction. Pour cela, nous avons étudié l’apport du modèle de Verbeek-Taylor (Verbeek (1972)) et son extension en environnement stochastique (Björkwall et al. (2010)). Ce modèle complète le modèle de Chain-Ladder en intégrant un paramètre complémentaire supposé refléter la dynamique inflationniste des paiements sous-jacents. En connaissance des caractéristiques des données et du contexte inflationniste, nous avons étudié l’effet de différentes hypothèses de projection de l’inflation sur l’estimation de la PSAP. De plus, l’application d’une méthode de bootstrap du modèle de Verbeek-Taylor a permis de mesurer le risque autour de l’estimation. Ce mémoire se conclut sur la proposition d’une méthode de provisionnement complète, permettant d’estimer la PSAP et la PSNEM en prenant en compte le risque inflation, et également d’évaluer une marge complémentaire permettant de faire face au risque de sur-inflation.

Quels sont les aspects de vos mémoires que vous auriez souhaité développer plus en détail et quels conseils donneriez-vous à un étudiant envisageant de rédiger un mémoire sur un sujet similaire ?

Il y a plusieurs pistes que j’aurais aimé développer davantage dans le cadre de mon mémoire.

D’abord, une des limites de mon modèle réside dans la généralisation de celui-ci. La dernière partie de mon mémoire propose une méthode de provisionnement, mais celle-ci repose sur différents jugements d’experts à appliquer en fonction des données utilisées, des résultats obtenus et de la conjoncture économique. Ainsi, il n’y a pas réellement de modèle « clé en main », mais plutôt une proposition de méthode illustrée à l’aide d’une application. J’aurais préféré creuser davantage pour connaître la robustesse de cette méthode, notamment en étudiant la sensibilité aux différents jugements d’experts sur différents jeux de données, ou même en faisant du backtesting.

De plus, avec plus de temps, j’aurais voulu ajouter une partie s’éloignant de la modélisation et de l’aspect technique traité dans le mémoire pour inscrire mes travaux dans un cadre règlementaire. La méthode aurait notamment pu être utilisée dans le cadre de l’ORSA, pour comprendre davantage le risque inflation auquel un assureur est exposé.

Pour un étudiant qui souhaiterait travailler sur un sujet similaire, je lui conseillerais de commencer par se documenter un maximum et monter en compétences dans le domaine de l’assurance construction avant de réellement rentrer dans son sujet en détails. Il s’agit d’un sujet niche de l’assurance non-vie, avec une règlementation et des méthodes spécifiques.

Pouvez-vous identifier d’autres secteurs de l’assurance ou de la finance où vos travaux pourraient être appliqués ?

Mes travaux se sont inscrits dans le secteur de l’assurance construction, qui est spécifique au sein même du secteur de l’assurance. La méthode globale de provisionnement proposée dans le mémoire ne peut pas être généralisée, car la PSNEM est propre à l’assurance construction. Cependant, la première partie de la méthode permettant d’estimer la PSAP pourrait être généralisée et appliquée à d’autres branches de l’assurance, principalement des branches longues pour lesquelles l’inflation a un impact significatif. Les assureurs pourraient ainsi mieux saisir les enjeux autour de l’inflation implicite contenue dans leurs données, et étudier la sensibilité de leur provisionnement face à différents scénarios d’inflation future.

Ce mémoire permet aussi de souligner l’importance du risque de sur-inflation dans le provisionnement en général. En effet, l’impact d’une dérive inflationniste par rapport aux scénarios considérés dans le provisionnement n’est pas négligeable, et il est important d’étudier ce point, particulièrement sur les branches longues.

En quoi pensez-vous que vos travaux peuvent contribuer à répondre aux enjeux clés d’un paysage des risques en pleine recomposition ?

Mon mémoire s’est articulé principalement autour du risque inflation. Ce risque a toujours été présent dans le secteur de l’assurance, mais la conjoncture économique depuis la crise de la Covid a rappelé son importance. Dans un cadre où les régulateurs sont de plus en plus exigeants sur la transparence et la connaissance de ses propres risques, mes travaux proposent une solution aux assureurs pour s’intéresser au risque inflation et ce qui l’entoure. Ainsi, la méthode proposée permet d’étudier l’inflation implicite passée contenue dans l’historique, de projeter les triangles de provisionnement selon des scénarios explicites d’inflation, et d’étudier le risque de sur-inflation.


 

DANIEL NKAMENI

« Étude de la stabilité des modèles : cas des modèles de segmentation en assurance-crédit »

 

Contexte

Les modèles statistiques et de Machine Learning, largement utilisés en assurance, finance et gestion des risques, reposent généralement sur un calibrage à partir de vastes ensembles de données, afin de capturer les tendances et informations caractéristiques de la population ou du phénomène étudié. Ce processus soulève des questions cruciales : dans quelle mesure peut-on être certain que, lors de cet apprentissage, le modèle capte uniquement les tendances pertinentes et intrinsèques, sans inclure d’informations parasites liées aux jeux de données utilisés pour son entraînement ? Obtiendrait-on un modèle identique si le calibrage se faisait sur un autre ensemble de données issu de la même population ou du même phénomène ? Quel est l’impact de la sélection d’un jeu de données spécifique sur la précision du modèle final ? En d’autres termes, le modèle construit est-il stable par rapport aux données d’entraînement ? Si ce n’est pas le cas, existe-t-il des modèles plus stables ? Et enfin, quelles méthodes pourrait-on utiliser pour étudier et mesurer cette stabilité ?

La stabilité des modèles actuariels, financiers, et des modèles en général reste un sujet encore peu exploré dans la littérature scientifique. Ce mémoire s’efforce de combler cette lacune et d’encourager des recherches approfondies sur la stabilité des modèles, avec un focus particulier sur les modèles de segmentation. Nous sommes convaincus que la stabilité des modèles en assurance et en finance est tout aussi cruciale que leur interprétabilité ou leur équité, et qu’elle mérite par conséquent une attention équivalente.

Objectifs et résultats

Ce mémoire a pour objectif principal de proposer une méthodologie détaillée pour l’étude et la validation de la stabilité d’un modèle de segmentation en assurance-crédit. Plus précisément, il s’agit de définir la stabilité d’un modèle de segmentation, d’élaborer des métriques et statistiques permettant son évaluation, et de concevoir une méthodologie d’étude de stabilité facilement reproductible et adaptable à d’autres modèles et secteurs de l’assurance et de la finance.

Les tests ont été réalisés sur des données d’assurance-crédit et sur le modèle interne partiel d’un grand assureur crédit français. Cet assureur a lancé cette étude en réponse aux préoccupations soulevées par l’Autorité de contrôle prudentiel et de résolution (ACPR) quant à la stabilité des modèles de segmentation utilisés dans son modèle interne partiel, ce qui met en évidence le besoin d’une attention accrue à la stabilité des modèles en assurance et en finance.

Les métriques définies ont permis de démontrer que certains modèles de segmentation, classés comme « très instables », pouvaient présenter des variations atteignant 19 % dans leur structure de segmentation en réponse à des fluctuations minimes (0,2 %) des données d’entraînement. Sur le plan opérationnel, ces légères variations de 0,2 % dans les données d’entraînement engendraient, avant correction, des écarts de plus de 5 % dans le SCR de souscription non-vie de l’activité d’assurance-crédit de l’assureur étudié. Grâce à notre méthodologie et aux métriques visuelles et statistiques proposées, nous avons pu identifier les modèles de segmentation les plus stables et les facteurs influençant leur stabilité. Il ressort que la stabilité des modèles de segmentation s’accroît avec l’augmentation de la taille des échantillons d’entraînement. De plus, la réduction ou l’élimination des corrélations entre variables de segmentation contribue à renforcer la stabilité des segmentations finales. Certaines variables, par leur structure, tendent à diminuer cette stabilité, soulignant l’importance d’un choix rigoureux des variables, pouvant être guidé par les métriques proposées dans ce mémoire ou des métriques similaires.

Pistes d’approfondissement et recommandations

Notre méthodologie, bien que développée pour l’assurance-crédit, est adaptable à d’autres secteurs de l’assurance et de la finance où des modèles reposant sur des données client, de marché ou économiques sont employés. N’ayant toutefois pas eu l’opportunité de la tester sur des données issues d’un autre secteur, nous n’avons pas pu renforcer la robustesse de notre approche en diversifiant les cas d’application. Cette limitation représente néanmoins une piste intéressante pour des travaux futurs, qui pourraient approfondir le sujet dans le cadre de mémoires, de projets ou d’articles scientifiques.

Pour les étudiants souhaitant explorer ce thème, il est essentiel de ne pas négliger l’aspect métier et le contexte spécifique de leurs recherches. Bien que la stabilité des modèles apparaisse au premier abord comme un sujet principalement statistique, les analyses doivent être alignées sur le domaine d’application. Par ailleurs, si nous proposons ici une définition générale de la stabilité, les métriques associées devront être ajustées au contexte d’application pour maximiser leur pertinence.

Potentiel de cette étude et secteurs d’application

Nos résultats mettent en lumière l’importance cruciale d’accorder une attention soutenue à l’étude et à la validation de la stabilité des modèles en assurance et en finance. Le champ d’application de notre méthodologie est aussi vaste que celui des modèles utilisés dans ces secteurs. Ce mémoire propose des métriques visant à quantifier la stabilité d’un modèle de segmentation, métriques qui pourraient être intégrées aux outils standards à valider lors de la conception de tels modèles, notamment les indices de Gini et de Theil, ainsi que divers indices métiers. Enrichis de perspectives prometteuses, nos travaux ouvrent également la voie à des études similaires, contribuant ainsi à combler une lacune dans la littérature concernant la stabilité des modèles.


 

Florian SALAUN

« Modélisation par apprentissage statistique du lien température-mortalité en Open Data et application prédictive »

 

Pourriez-vous décrire les principaux objectifs de votre mémoire ainsi que les résultats que vous souhaitez souligner ?

Ce mémoire avait pour objectif de proposer une vision alternative de la modélisation de la mortalité, en tenant compte de l’impact spécifique lié aux températures. En effet, le corps humain cherche à maintenir en permanence une température interne constante, ce qui va le rendre plus ou moins sensible aux variations des températures extérieures. Or, les modèles actuariels de référence retiennent une approche annuelle fondée sur des composantes qui ne permettent pas de capter l’impact spécifique lié aux phénomènes climatiques.

L’approche proposée dans cette étude est donc de s’appuyer sur des données de températures journalières, afin de comprendre le plus finement possible leur impact sur la mortalité. Ensuite, les principales méthodologies de modélisation de la mortalité proposées dans la littérature épidémiologique ont été comparées par apprentissage statistique. Finalement, plusieurs critères ont été retenus afin de sélectionner un modèle en vue de l’appliquer pour projeter la mortalité à horizon 2070. Au-delà de la recherche d’un modèle offrant le meilleur compromis entre la précision de ses sorties, le temps de calcul et son interprétabilité, il a été décidé de s’intéresser à la capacité de chaque modèle à reproduire les relations empiriques mentionnées dans la littérature épidémiologique ainsi que la surmortalité observée au cours des vagues de chaleur passées.

Ce travail a permis de mettre en avant l’apport d’une famille de modèles (les Distributed Lagged Non-Linear Models) capable de capter à la fois l’intensité et la persistance des effets de la chaleur et du froid sur la mortalité. Par ailleurs, certaines catégories de la population particulièrement à risque ont été identifiées. Ainsi, les mesures de prévention et d’adaptation face aux vagues de chaleur pourraient être ciblées, notamment à destination des personnes âgées, de sexe féminin, ainsi que des individus habitant dans des zones fortement urbanisées.

Quelles sont les aspects de votre mémoire que vous auriez souhaité développer plus en détail et quels conseils donneriez-vous à un étudiant envisageant de rédiger un mémoire sur un sujet similaire ?

Tout d’abord, l’apport de nouvelles données publiques permettrait d’augmenter notre recul sur la connaissance des relations température-mortalité. Par exemple, la disponibilité de nouveaux scénarios climatiques ou de variables davantage liées aux températures ressenties permettraient de confirmer les projections de mortalité établies dans l’étude. De même, il aurait été intéressant de pouvoir disposer d’autres données à une maille fine (mesures d’adaptation ou de prévention adoptées historiquement, accès aux services de soins), afin d’expliquer l’hétérogénéité géographique des relations température-mortalité.

Ensuite, il aurait été intéressant d’approfondir la réflexion sur la segmentation géographique des données. En effet, afin de vérifier l’existence d’une acclimatation, il a été proposé une modélisation distincte des relations températures-mortalité sur trois grandes régions géographiques à partir d’une classification officielle, qu’il aurait été intéressant de discuter.

Enfin, il aurait été utile de réfléchir à une intégration des modèles implémentés dans cette étude dans les modèles actuariels de référence, tels que celui de Lee-Carter. Cela aurait permis de mieux capter la structure par âge de la mortalité, via l’intégration de l’information relative à chaque classe d’âge au sein d’un unique problème d’optimisation.

Je conseillerais à un étudiant intéressé par le sujet de se renseigner sur les données pouvant être utiles pour une telle étude, sachant que de nouvelles sources apparaissent régulièrement. La littérature épidémiologique est également riche en études sur les relations températures-mortalité, ce qui peut donner des pistes à creuser et à relier au domaine actuariel.

Pouvez-vous identifier d’autres secteurs de l’assurance ou de la finance où vos travaux pourraient être appliquées ?

Cette étude a tout d’abord vocation à encourager les assureurs à employer une méthodologie alternative de modélisation du risque de mortalité dans leur tarification de produits d’assurance vie ou santé. En effet, l’augmentation de la fréquence et de l’intensité des vagues de chaleur prédite par les instituts météorologiques pourrait, selon ce mémoire, se matérialiser par des dérives de mortalité significatives d’ici la fin du siècle. Des augmentations de dépenses en frais de santé (consultations médicales, passages aux urgences, hospitalisations) ainsi que des arrêts de travail pourraient par ailleurs survenir, affectant les mutuelles et institutions de prévoyance, mais également les pouvoirs publics.

L’ensemble de ces éléments pourra être inclus dans une évaluation interne des risques (ORSA), via une évaluation qualitative et – en cas de matérialité – quantitative de l’impact du dérèglement climatique sur le risque de mortalité. La granularité départementale des projections présentée dans le mémoire permet en effet de tenir compte de l’exposition de chaque assureur au risque de mortalité.

En quoi pensez-vous que vos travaux peuvent contribuer à répondre aux enjeux clés d’un paysage des risques en pleine recomposition ?

Les travaux de ce mémoire répondent à plusieurs enjeux liés à la connaissance des impacts du dérèglement climatique sur la santé ainsi que les produits d’assurance qui y sont associés.

Tout d’abord, il cherche à répondre à un enjeu de quantification en tentant d’exploiter toute la granularité disponible (géographique et temporelle) de l’Open Data afin d’établir des prédictions crédibles du nombre de décès observé lors des épisodes de températures extrêmes.

Les enjeux liés à l’adaptation et la prévention sont également abordés. En effet, celles-ci s’avèreront nécessaires afin de limiter les conséquences des températures extrêmes, et cette étude propose une méthodologie simple et modulable afin de quantifier leur apport potentiel. Plusieurs mesures d’adaptation ont été mentionnées, parmi lesquelles la végétalisation des toits, qui permet d’absorber les rayons du soleil et ainsi de limiter la hausse des températures ressenties au sein des habitations.