Comme chaque année, les mémoires d’actuariat ont été évalués et méritent d’être valorisés. Quatre mémoires ont été retenus, et présentés ici dans l’ordre alphabétique de leurs auteurs et autrices : Jeanne Bessière, Axel Merlin, Lou Nicolas, Marc Jodel Simo. Le mémoire de Lou Nicolas a été primé par l’Ecole en novembre 2025.
1. Jeanne Bessière, climat et espérance de vie
Jeanne Bessière est titulaire d’un Master d‘Ingénierie Financière de Paris-Dauphine, du MS Actuariat de l’ENSAE, et est membre associé de l’Institut des Actuaires. Elle est consultante en Actuariat Vie à Milliman depuis Janvier 2025.
L’objet principal du travail est d’étudier l’impact du climat à horizon 2060 sur la mortalité, en particulier sur l’espérance de vie selon deux approches de modélisation : une modélisation conjointe des risques climatiques et une modélisation additive.
A un âge donné, l’espérance de vie résiduelle est directement influencée par l’évolution combinée des températures et des concentrations en ozone et en particules fines de moins de 2,5 micromètres de diamètre, nocives pour la santé respiratoire et cardiovasculaire (dites PM2.5). Dans les scénarios d’augmentation des PM2.5, le climat entraîne une réduction de l’espérance de vie en 2060. En revanche, dans les autres scénarios, la diminution progressive des concentrations en particules fines compensera temporairement l’impact négatif de la hausse des températures. Cette tendance positive est cependant limitée dans le temps : à plus long terme, notamment au-delà de 2060, la croissance continue du facteur climatique provoquée par la hausse des températures dominera, entraînant une diminution de l’espérance de vie.
Il sera intéressant d’aller plus loin, avec deux idées. La première serait d’intégrer les effets décalés des risques climatiques (risques chroniques) : les effets des risques climatiques sur la mortalité sont non linéaires, synergiques et décalés dans le temps. Un modèle « idéal » permettrait de réunir ces trois caractéristiques. Dans le mémoire, la prise en compte des effets décalés dans le temps a été laissée de côté. Or la température a des effets retards, c’est-à-dire un impact différé à court terme, tandis que l’exposition à la pollution provoque des effets à moyen et long termes. Cet effet retard de la température a par ailleurs été étudié avec un DLNM (Distributed Lag Non-Linear Model) et révèle un fort impact non linéaire des dernières températures quotidiennes sur la mortalité. L’impact à moyen et long termes de la pollution pourrait être considéré en intégrant des variables de concentrations cumulées de pollution de l’air.
La seconde serait de prendre en compte les risques climatiques physiques aigus (tempêtes, inondations…)
Pour conclure, ce type d’approche pourrait être appliqué à d’autres secteurs de l’assurance ou de la finance : intégration des risques climatiques dans la tarification des produits d’assurance, dans la cartographie des risques, la prévoyance, mise au point d’outil d’aide à la décision pour les politiques publiques car les résultats montrent qu’à court terme, la baisse des PM2.5 peut compenser la hausse des températures, ce qui valide un intérêt à continuer les politiques en cours ; la méthodologie est transposable à la modélisation conjointe d’autres risques physiques (sécheresse, chaleur, pollution), par exemple sur les rendements agricoles.
2. Axel Merlin, optimisation de l’allocation d’actifs
Axel Merlin est diplômé de CentraleSupélec, titulaire d’un Master 2 en statistique, finance et actuariat de l’Institut Polytechnique de Paris, et consultant en actuariat chez Deloitte.
Le mémoire aborde une approche innovante d’optimisation de l’allocation d’actifs pour les assureurs, fondée sur la combinaison des modèles ALM (Asset Liabiity Management) traditionnels et des techniques avancées d’intelligence artificielle. Les travaux mettent en évidence une réduction significative des temps de calcul, une amélioration notable de la précision des estimations de la NAV (Net Asset Value) et du SCR (Solvency Capital Requirement), ainsi qu’une capacité renforcée à explorer efficacement les portefeuilles optimaux grâce aux algorithmes de machine learning et d’optimisation.
Les développements futurs sont multiples et prometteurs, notamment l’intégration de scénarios économiques dynamiques, le déploiement d’approches multi-objectifs plus avancées, l’automatisation accrue des processus décisionnels en matière d’allocation d’actifs, ainsi que le recours à des modèles explicables (Explainable Artificial Intelligence) afin de renforcer la transparence et l’interprétabilité des résultats. En outre, les résultats présentés peuvent être appliqués à la réalisation de stress tests. Les méthodes d’exploration et d’optimisation développées permettent d’identifier efficacement des scénarios défavorables dans des espaces de simulation complexes.
L’approche modulaire du travail rend ses briques réutilisables dans divers contextes : pour la réplication de modèles par le machine learning, la recherche d’optima en haute dimension et la sélection d’informations pertinentes au sein de données volumineuses.
Dans un contexte de profonde recomposition du paysage des risques, les travaux réalisés contribuent à renforcer la capacité d’anticipation des modèles actuariels et leur résilience. Ils proposent des outils offrant une compréhension plus fine des risques tout en réduisant significativement les temps de calcul, renforçant ainsi la qualité et la rapidité de la prise de décision stratégique.
3. Lou Nicolas, modélisation de l’impact financier d’un cyclone à La Réunion
Lou Nicolas est diplômée de l’Université Paris Dauphine et de l’ENSAE, et est actuaire au sein de l’équipe Reserving P&C de SCOR.
Dans un contexte où il n’existe pas de modèle de marché spécifiquement adapté à La Réunion — île présentant des caractéristiques climatiques et géographiques singulières, rendant difficile la transposition de modèles développés pour d’autres régions comme les Caraïbes —, le travail de ce mémoire a consisté à construire un modèle permettant d’anticiper rapidement les impacts financiers d’un cyclone.
L’approche développée a reposé sur deux axes : le premier est d’identifier si l’événement cyclonique est susceptible de déclencher un suivi par l’équipe de réassurance ; le second est d’estimer en quelques jours la charge des sinistres pour faciliter la communication interne et externe.
Les résultats mettent en évidence l’importance cruciale de prendre en compte les effets combinés des précipitations et du vent pour savoir si un événement sera réassuré ou non.
Par ailleurs, le modèle a été testé sur le cyclone Belal, survenu à La Réunion en janvier 2024 ; ses conclusions ont prédit une charge avec un écart de moins de 1% par rapport à la charge réellement observée, contre 15 à 20 % pour la méthode utilisée auparavant.
Pour aller plus loin, certains développements pourraient être intéressants ; citons en quatre :
– travailler à une échelle plus fine, notamment à la maille adresse, ce qui permettrait d’exploiter les caractéristiques propres à chaque bâtiment (type d’usage, matériaux, localisation),
– sur le plan méthodologique, élaborer des courbes de vulnérabilité par type de péril, spécifiquement adaptées à La Réunion, pourrait ouvrir la voie à une modélisation plus précise et à des approches stochastiques,
– intégrer une composante liée au dérèglement climatique, essentielle et nécessaire, pour anticiper l’évolution des risques dans les années à venir,
– ajouter une dimension de prévention pour évaluer l’impact des mesures mises en place et renforcer la résilience des territoires face aux événements extrêmes.
Pour sortir du sujet spécifique du travail, les méthodes développées pourraient être utiles en gestion de crise ou en protection civile, en permettant une mobilisation rapide et ciblée des ressources après un événement climatique ; elles contribueraient aussi à la planification urbaine et à la résilience territoriale, en identifiant les zones à risque et en orientant les décisions d’aménagement.
Ce mémoire répond à un besoin souvent négligé : modéliser les risques cycloniques sur l’île de La Réunion, territoire historiquement sous-représenté dans les modèles, malgré une forte activité ces dernières années et un taux de souscription à l’assurance habitation proche
de 70 %. Le modèle développé permet une estimation rapide et fiable des sinistres, renforçant la capacité des assureurs à réagir efficacement, à démontrer leur maîtrise des risques, et à obtenir des couvertures de réassurance plus pertinentes.
Une évolution naturelle serait d’intégrer les effets du dérèglement climatique pour anticiper l’évolution des risques à moyen terme.
4. Marc Jodel Simo, équité en assurance, mesure et mitigation des discriminations
Marc Jodel Simo est ingénieur statisticien économiste de l’ENSAE, actuaire membre associé de l’Institut des Actuaires.
Le mémoire poursuit trois objectifs : comprendre, mesurer et corriger l’équité des modèles prédictifs en assurance. En premier lieu, l’équité n’a pas une définition unique : plusieurs principes coexistent (indépendance, séparation, suffisance), parfois incompatibles entre eux. Ainsi, tout travail sur l’équité doit commencer par définir précisément le principe retenu et la variable sensible concernée. Ensuite, l’application conduite sur la tarification automobile met en évidence le fait que supprimer une variable sensible dans un modèle ne garantit pas l’équité : des variables légitimes agissent comme proxys et véhiculent indirectement le biais.
Enfin, deux méthodes de mitigation (adoucissement, modération) ont été évaluées : l’orthogonalisation réduit partiellement la dépendance aux proxys, mais modifie la structure des données ; à l’inverse, le transport optimal post-modélisation s’avère particulièrement efficace car il permet d’atteindre une parité démographique quasi-parfaite, avec un impact limité sur la performance prédictive.
Plusieurs extensions naturelles émergent de ce travail.
Un premier axe consisterait à appliquer les méthodes de mitigation à d’autres principes d’équité que la seule indépendance, afin d’évaluer leur robustesse selon les cadres retenus.
Une seconde piste concerne l’étude de plusieurs variables sensibles simultanément, un défi encore peu traité mais particulièrement réaliste dans les environnements complexes.
Enfin, l’analyse des conséquences commerciales, concurrentielles et opérationnelles des corrections proposées constitue un prolongement essentiel pour une mise en production concrète.
Les résultats pourraient être appliqués à d’autres secteurs de l’assurance ou de la finance, car s’appliquant à tout domaine où des modèles d’IA peuvent influencer une décision.
En assurance, il s’agit de la souscription et sélection des risques, de la détection de fraude et scoring sinistres, et des modèles comportementaux (comme la probabilité de résiliation, de rachat en assurance-vie, la propension à accepter une augmentation tarifaire, l’élasticité au prix, la probabilité de fraude, …).
En finance, les problématiques sont similaires pour le scoring crédit, les modèles KYC (Know Your Customer), les systèmes AML (Anti–Money Laundering) ou la détection d’anomalies transactionnelles.
Globalement, dès qu’un modèle accompagne une décision, la question des biais et de l’équité peut devenir centrale.
L’expansion rapide de l’IA transforme profondément les métiers de l’assurance. Dans un contexte où les modèles deviennent plus complexes, plus automatisés et s’appuient sur des données de plus en plus riches, l’enjeu de confiance est majeur.
Le travail réalisé a proposé un cadre rigoureux pour détecter et corriger les biais, afin d’éviter les dérives potentielles de l’automatisation. Il rappelle aussi que la recherche d’équité n’est pas seulement une contrainte réglementaire, mais est un levier de confiance pour les assurés, un facteur d’acceptabilité pour les régulateurs et un élément clé de la durabilité des modèles. En aidant à intégrer l’éthique dans des modèles toujours plus performants, il contribue à une IA fiable, explicable et responsable, à la hauteur des enjeux d’un secteur en recomposition.
Commentaires récents