Quand j’ai découvert la première édition de cet ouvrage au début des années 2000, le nom de Bernard Beauzamy ne m’était pas inconnu, mais associé à des travaux d’une nature résolument plus abstraite, sur les espaces de l’analyse fonctionnelle [1]. Après une carrière au plus haut niveau universitaire, l’auteur s’est en effet mué en consultant et dirigeant de société, confronté aux questions et problèmes du monde « réel » et de l’entreprise. De là découle sans doute cet exposé des méthodes probabilistes qui combine d’une façon assez peu commune une démarche et un point de vue d’ingénieur, avec le sens du détail et de la rigueur mathématique. Nous voilà donc en présence d’un manuel original, loin des canons universitaires habituels dans le domaine et fruit d’une trentaine d’années de pratique.

Pour le lecteur qui a déjà envie d’abandonner la lecture de ces notes, voici un raccourci extrait des premières pages du livre, résumant bien les intentions :

« Le présent ouvrage cherche à explorer une zone d’ombre, à éclaircir un paradoxe : le fossé qui sépare les concepts probabilistes et l’usage qu’on en fait, ou qu’on peut en faire en pratique, au travers notamment des statistiques. Ce fossé n’est pas une fissure, c’est un abîme ».

Un ouvrage original

Dans le monde académique, le sujet revêt traditionnellement une vocation mathématique, en lien très étroit avec d’autres branches de l’analyse, et tout particulièrement la théorie de la mesure et de l’intégration. Le cheminement d’usage, très axiomatique, y est parfaitement légitime, mais peu favorable à la compréhension des motivations profondes sous-jacentes aux concepts abstraits et à l’appropriation des techniques de modélisation en vraie grandeur. La présentation obéit ici à une optique tout à fait complémentaire, qui prend à leur début différentes manifestations du hasard et construit de manière progressive et très pédagogique le concept de probabilité, à partir d’exemples issus de l’expérience du praticien.

L’approche adoptée n’est évidemment ni unique, ni réduite à cette perspective, mais elle se distingue néanmoins par un double souci permanent de :

  • S’interroger sur la pertinence et le pourquoi des axiomes et hypothèses du cadre théorique utilisé. Il s’agit en particulier de ne pas céder trop rapidement aux solutions de facilité, comme l’indépendance présumée d’évènements et de variables aléatoires ou encore le recours abusif au théorème central limite et aux lois normales.
  • S’en tenir à une forme de parcimonie qui s’attache, face à une situation donnée, à éviter tout formalisme inutile ou artificiel. Rien ne sert d’élaborer un modèle raffiné si la finesse et la qualité des données disponibles sont insuffisantes pour estimer les paramètres avec robustesse.

L’étude de situations réelles correspond rarement à la mise en œuvre de modèles relevant d’une application directe de cas d’école. La liste des paramètres susceptibles d’intervenir dans la formulation du problème n’est jamais complètement connue, les données utilisées en entrée sont toujours assorties d’une incertitude et immanquablement parsemées de valeurs manquantes ou erronées. L’auteur met donc souvent l’accent sur des méthodes qui s’éloignent sensiblement du point de vue standard et elles font généralement l’objet d’une rédaction bien étoffée et de calculs détaillés. Le tout peut sembler au premier abord bien dense, mais en réalité le style reste alerte et régulièrement teinté d’une bonne dose d’ironie.

L’objectif est par ailleurs de présenter en un seul volume l’ensemble des outils de nature probabiliste utiles pour la modélisation. La traditionnelle distinction entre théorie des probabilités et statistique est par conséquent peu marquée ici.

On remarquera que l’exposé introductif est plutôt copieux et se distingue tout d’abord par quelques digressions sur « l’effectivité » des mathématiques et la place qu’y occupent les probabilités. Il aborde ensuite la notion de hasard avec une déclinaison de la formule d’Henri Poincaré, à savoir qu’au moins au niveau macroscopique, ce n’est que la mesure de notre ignorance [2]. A l’échelle atomique il en va tout autrement et l’auteur, volontiers polémiste, ne résiste pas à la tentation de rappeler que René Thom qualifiait la mécanique quantique de scandale intellectuel du 20ème siècle, au sens où on s’abrite derrière le formalisme mathématique sans comprendre réellement les lois physiques [3].

Même s’il n’est pas toujours naturel ni spontané d’introduire du hasard là où il n’y en a pas a priori, l’approche probabiliste et ses outils se révèlent souvent fructueux dans bien des situations concrètes. C’est que la plupart du temps, expliciter le phénomène sous un angle purement déterministe s’avère aussi long que coûteux et pour des raisons autant humaines que techniques on serait en réalité incapable de le faire correctement.

Du concept de hasard aux problèmes industriels

La présentation est articulée autour de trois grandes parties, centrées respectivement sur la place et le rôle du hasard, les outils probabilistes et enfin le cheminement retenu pour l’étude de divers problèmes industriels.

Une introduction substantielle est donc dédiée aux différentes manifestations et utilisations du concept de hasard, ainsi qu’à l’information et aux raisonnements probabilistes. Signe d’une longue pratique de terrain, une place importante est allouée dès le préambule aux aspects liés aux données : l’acquisition de l’information probabiliste, sa représentation et son exploitation. Les chapitres introductifs pointent également les dérives et dangers d’une utilisation abusive ou aveugle des outils mathématiques, des résultats asymptotiques, au-delà de leur domaine de validité. Même si le trait peut sembler parfois un peu forcé ou caricatural, la mise en garde n’en reste pas moins salutaire.

Les outils de base de la théorie des probabilités sont ensuite exposés, moins du point de vue axiomatique d’usage, que motivés par leur application pratique : espace probabilisé, variables aléatoires, indépendance, conditionnement. Les deux derniers aspects font l’objet d’une attention particulière, à la mesure de leur importance et omniprésence dans les activités de modélisation. Par endroits le lien est utilement fait avec le cadre plus général de la théorie de la mesure et de l’intégration, qui n’est pas utilisée ici. L’application de ces concepts est illustrée avec différents exemples, notamment l’exploitation de données de capteurs, l’estimation de taux de risque ou la prévision de phénomènes extrêmes.

Les passages de pure mathématique ne sont pas totalement absents pour autant. Au détour de considérations plus terre à terre, on pourra ainsi croiser un zeste d’analyse complexe et de théorème de Cauchy pour calculer la fonction caractéristique d’une variable gaussienne. Dans cette partie également, les difficultés soulevées par la qualité des données et le niveau d’information disponible ne sont pas non plus occultées. Des solutions concrètes sont en particulier proposées dans le cas de dispositifs à base de capteurs, pour la correction d’erreurs, le calibrage ou encore la fusion de données et l’hybridation de mesures. Pour clore cette partie centrale, quelques thèmes classiques sont traités en détail : la compatibilité d’un échantillon avec une loi donnée, la reconstitution d’une densité de probabilité, la convergence vers la loi de Gauss avec une analyse assez fine du théorème central limite.

Sur la base des concepts et outils présentés précédemment, une troisième partie détaille le traitement de quelques problèmes tirés de situations réelles, plutôt d’ordre physique, comme l’influence des vents sur la marche d’un TGV, le recalage altimétrique d’un missile, la production d’électricité ou encore l’organisation de tournées. Le dernier chapitre présente différentes techniques de modélisation et constitue une forme de synthèse : comment construire un modèle en utilisant les outils exposés auparavant.

Une grande part de l’état d’esprit du livre se retrouve bien concentrée dans cette dernière partie : ne pas se contenter uniquement de cas d’école et traiter davantage les problèmes qui se posent, plutôt que ceux qu’on se pose.

En complément, signalons que certains thèmes particuliers, comme la reconstruction de données manquantes ou l’évaluation des risques, sont développés de façon encore plus approfondie dans d’autres ouvrages du même auteur relevant de la même philosophie.

L’ouvrage contient les inévitables coquilles de ce type de publication, ainsi que deux ou trois calculs discutables. Mes notes détaillées sont à la disposition de tout lecteur intéressé (utiliser la partie commentaires en fin d’article).

 

Mots-clés : Hasard – Probabilités – Statistique – Modélisation

 

* « Méthodes probabilistes pour l’étude des phénomènes réels » de Bernard Beauzamy, aux éditions SCM SA (Société de Calcul Mathématiques)


NOTES

[1] Notamment : Bernard Beauzamy, Introduction to Banach Spaces and their Geometry, North-Holland 1985.

[2] Dans Science et méthodes, Livre premier Chapitre IV : le hasard.

[3] Dans Prédire n’est pas expliquer.


Quelques lectures connexes

(En se limitant à la langue française)

Un livre très intéressant entièrement basé sur des exemples (un peu plus « scolaires ») :

Claude Bouzitat et Gilles Pagès, En passant par hasard, les probabilités de tous les jours, Vuibert 1999.

 

Un manuel de référence qui regroupe les fondements probabilistes et les bases de la statistique mathématique :

Philippe Tassi, Méthodes statistiques, Economica 2004.

 

A peu près le même périmètre, présenté en deux volumes avec davantage de développements mathématiques (notamment en introduction un exposé complet de la théorie de la mesure et de l’intégrale de Lebesgue) :

Alain Monfort, Cours de probabilités, Economica 1996.

Alain Monfort, Cours de statistique mathématique, Economica 1997.

 

Deux classiques de l’axiomatisation mathématique :

Michel Métivier, Notions fondamentales de la théorie des probabilités, Dunod 1972.

Jacques Neveu, Bases mathématiques du calcul des probabilités, Masson 1964.

 

Olivier Thöni