Partagez cette page :

Florian IELPO est Head of Macro Research pour Unigestion à Genève (Suisse). Chafic MERHY est Head of Credit Quantitative Research pour Ostrum Asset Management. Guillaume SIMON est Research Manager en arbitrage statistique pour CFM à Paris. Florian, Chafic et Guillaume sont tous diplômés de l’ENSAE, promotion 2005 et ont publié il y a quelques mois l’ouvrage « Engineering Investment Process – Making Value Creation Repeatable» (ISTE / Elsevier).

Guillaume, Florian, Chafic, vous avez publié récemment l’ouvrage « Engineering Investment Process ». Pouvez-vous nous en dire un peu plus sur vous ? Et pourquoi avoir voulu écrire ce livre ?

A vrai dire, c’est le livre dont nous aurions aimé disposer en tant qu’étudiants ! Il manquait dans la littérature financière un ouvrage empirique avec un spectre étendu, qui ne délaisse pas pour autant la théorie. Il est difficile pour un jeune désireux de travailler dans l’industrie financière d’avoir une vue réaliste de ce que peut être notre métier. Ce mot, industrie, est important et c’est aussi un des thèmes du livre : la finance constitue une industrie et la rigueur doit être présente à chaque moment du processus de décision. Privilégier la robustesse, l’exigence et la prise de recul, y compris théorique, c’est le message que nous souhaitions faire passer, au-delà des équations.

Notre livre peut aussi être utile à des professionnels soucieux de se replonger dans la théorie et d’unifier leurs connaissances. C’était du reste aussi un de nos objectifs personnels lors de la rédaction : approfondir certains sujets, et parfaire notre compréhension et notre culture générale sur certains thèmes.

Vous avez étudié à l’ENSAE et vous êtes spécialisés dans les méthodes quantitatives appliquées à la finance. Quels en sont aujourd’hui les débouchés ? Sont-ils restreints par l’opprobre qui frappe les métiers financiers, et de trading en particulier ?

Nous pensons au contraire qu’il n’y a jamais eu besoin d’autant de matière grise dans le domaine. On voit certes un intérêt énorme des jeunes diplômés pour les sciences de la donnée, non restreintes à la finance. Mais la finance a toujours besoin de ces profils. Du reste, après le vote sur le Brexit, la place financière française a une énorme carte à jouer pour mettre en valeur ses profils techniques.

Et la statistique reste prépondérante en finance car en un mot, la construction de portefeuille est avant tout un problème d’estimation statistique. Un problème statistique où les paramètres du modèle d’allocation sont inconnus et doivent être estimés. Les rendements attendus sont aléatoires, les risques associés imparfaitement mesurés. Or, la théorie statistique fournit des outils pour appréhender l’incertitude. On retrouve alors les arbitrages classiques entre biais et efficacité, robustesse et précision… Nous avons ainsi segmenté le processus d’investissement en plusieurs étapes en tâchant d’identifier la valeur ajoutée et la spécificité de chaque transformation, et surtout les pièges à éviter lors de la confrontation de la théorie à la pratique.

Vous évoquez dans votre ouvrage les processus d’investissement à base de méthodes quantitatives. Considérez-vous celles-ci comme suffisantes pour construire un processus complet, ou doivent-elles être complétées par une approche basée sur le jugement et l’expérience ?

C’est une excellente question, assez fondamentale. Ce que nous soulignons tout au long du livre est justement la nécessité de prendre du recul par rapport à ce processus d’investissement, sur chacune de ses étapes. Il est essentiel de construire une critique et une expérience sur chaque action et sur chaque décision. Nous ne préconisons donc pas d’utiliser ces techniques à l’aveugle, mais bien d’accumuler une expérience autour de celles-ci. C’est la raison pour laquelle nous ne traitons pas de stratégies d’investissement. Nous expliquons comment prendre du recul sur tout le reste, sauf sur cet aspect car il reste souvent le cœur de l’expertise de ces métiers. Quelle que soit la stratégie envisagée, l’essentiel de notre message reste valide, que le processus d’investissement soit quantitatif ou qualitatif : il est nécessaire de systématiser les différentes étapes de construction de celui-ci et notre ouvrage fournit un certain nombre de clefs en ce sens. Ce qui est sûr c’est que dans un portefeuille d’arbitrage statistique où 5000 valeurs sont traitées en temps réel, la machine sera toujours plus efficace que l’œil humain. Mais reste à lui dire ce qu’il faut faire !

Le CAPM demeure la base de nombreux raisonnements en gestion d’actifs. Comment les méthodes que vous recommandez traitent-elles des asymétries de rendement et des non-linéarités ?

Selon le CAPM, il est impossible de battre le marché, du moins systématiquement. Triste conclusion pour notre industrie ! Heureusement d’autres approches justifient la capacité de la gestion à créer de la valeur, de l’alpha comme on dit dans notre jargon. L’asymétrie fait partie intégrante du fonctionnement de nos marchés. Acheter une obligation, même vanille, revient à s’exposer à un risque de défaut. Les rendements attendus sont donc asymétriques par construction. Et même, sans risque de défaut, dans un environnement de taux bas voire négatifs, les écartements de taux sont plus probables à terme que les resserrements. Cette asymétrie entraine une sous-estimation du risque tel que mesuré par des indicateurs classiques, à l’image de la volatilité. Nous proposons des ajustements par palier à cette asymétrie. On retrouve également dans cette boîte à outils des filtres non linéaires, avec des applications sur données réelles.

Nous avons évoqué l’an dernier dans variances.eu l’engouement croissant des investisseurs pour les facteurs dans la construction de portefeuilles[1]. Pouvez-vous nous en dire plus sur l’intérêt d’une telle approche ?

La volonté d’expliquer le rendement d’un grand nombre d’actifs à l’aide d’un nombre réduit de facteurs ne date pas d’hier. Les applications s’étendent sur des domaines variés en finance : des modèles de risque à l’attribution de performance en passant par la génération de signaux et l’investissement factoriel. La crise de 2008 a donné un coup d’accélérateur à ce courant suite à la chute simultanée de plusieurs classes d’actifs, en apparence décorrélées. L’exemple du fonds souverain norvégien sert désormais de cas d’école. Là aussi, si ces modèles paraissent simples, ils reposent sur des hypothèses souvent négligées en pratique. Ainsi la décomposition systématique – idiosyncrasique n’est pas atteignable en réalité. Largement répandue en Risk Management, cette décomposition pourrait conduire à une sous-estimation du risque pour des portefeuilles long/short où la composante spécifique du risque est prépondérante : étendre le nombre et l’analyse de ces facteurs à l’aide des méthodes présentées dans le livre nous apparait être une étape nécessaire de l’évolution de notre industrie.

La finance a attiré un certain nombre de scientifiques issus des mathématiques, de la physique, de l’informatique… Partagez-vous l’idée que la recherche financière bénéficie des avancées dans ces différentes disciplines, et pouvez-vous l’illustrer par des exemples ?

En général cette affirmation est vraie depuis longtemps pour la valorisation des produits dérivés où de nombreux mathématiciens ont eu des contributions décisives. Y compris pour l’informatique puisque désormais la programmation sur carte graphique est monnaie courante pour le calcul intensif. Quant à la physique, c’est surtout via l’éconophysique et la physique statistique (pour faire court) que les apports se sont faits. Une fois face à des données réelles, la différence entre la physique statistique et les statistiques classiques est ténue. Les problématiques de pricing ont été pendant des années un merveilleux terrain de jeu pour les mathématiciens. Les physiciens, eux, ont probablement plus d’intuition et une absence de dogme lorsque confrontés à des données réelles.

Nous entendons souvent des mots comme « Big Data », ou « Machine Learning ». Ces concepts vont-ils révolutionner la finance ?

Il faut revenir à ce que sont ces concepts. Les banques, Hegde Funds ou Asset Managers sont déjà utilisateurs de (très) grandes quantités de données : prix, données haute fréquence, bilans d’entreprises, etc. Par nature le métier qui consiste à « investir » ou « gérer » a toujours exigé de brasser à l’aide d’outils informatiques des quantités de données gigantesques. En soi, le terme de « Big Data » ne doit pas faire peur en finance. Ce qui est nouveau c’est que pour des activités a priori éloignées des problématiques financières (réseaux sociaux, vidéo) les volumes de données sont encore plus grands et ces concepts vont jusqu’à envahir le débat public. Le vrai enjeu est que pour ces activités, l’entreprise dominante est celle qui possède la donnée, la collecte ou l’exploite.

On pourrait voir le « Machine Learning » comme une extension, une branche ou un cas particulier des statistiques non paramétriques, ce qui serait une bonne première approximation. Cependant la disruption se fait dans l’utilisation et la nature de la donnée. Prenons l’exemple de la classification pour un site de vidéo. Une vidéo d’un match de tennis restera un match de tennis : l’issue est non seulement déterministe mais aussi « supervisable ». Plus le modèle sera entraîné, plus la réponse sera sûre et digne de confiance.

En finance c’est différent. Il n’y a pas de certitude sur l’évolution future du rendement d’un actif lorsqu’on l’achète. Mais outre ce non-déterminisme, un autre aspect tranche : la nature et la versatilité des données. En finance, la nature des données change peu : séries temporelles, bilans d’entreprise. On voit certes arriver des choses beaucoup plus originales (footage, images, vues satellite, etc) mais ce qu’il y a à prédire reste assez simple à décrire : quels seront mes rendements ? mon risque ? mon exposition ? C’est la réponse à cette question qui ne l’est pas. Cependant la nature des données n’est pas amenée, en général à changer au cours du temps. En cela les réflexes classiques de statistique restent fondés : parcimonie, robustesse, capacité à généraliser. Pour entraîner un algorithme à classer une vidéo, c’est différent. Comme la « vraie » réponse du lendemain sera toujours la même, on peut recommencer le processus chaque jour. Mais entretemps, les données auront changé, en quantité mais aussi en nature : nouvelles vidéos, commentaires des utilisateurs, push sur les réseaux sociaux. Quand les données elles-mêmes évoluent et interagissent en milieu ouvert, cela crée de nouvelles problématiques et de nouvelles manières de voir les choses.

Le « Machine Learning » pourrait donc n’être d’aucune utilité en finance ?

Si, bien au contraire.  S’il est difficile de vendre à un client un investissement totalement « black box », des algorithmes d’apprentissage sophistiqués et nécessitant des recalibrages fréquents peuvent avoir une utilité. Mais plutôt que prédire des rendements, il faut peut-être plus les concevoir comme du nowcasting ou de la prévision de séries temporelles « déterministes ». Par exemple, si l’on veut prédire la production de blé aux Etats-Unis, un algorithme de prévision très lourd des cultures sur des images satellites aura son utilité. Que faire de cette prévision ? C’est ensuite à l’investisseur de prendre sa décision à l’aide de cet outil et de ces nouvelles données. On peut donc imaginer des liens non pas indirects mais plutôt en amont et très réels entre finance et machine learning. La donnée est muette. La transformer en information est une action distincte de l’utilisation de cette information en matière de stratégie d’investissement.


[1] NDLR: “Recourir aux facteurs pour allouer les actifs d’un portefeuille », publié par Eric Tazé-Bernard en janvier 2017