Partagez cette page :

L’arrivée puis la pérennisation du Big Data dans le monde professionnel impacte pleinement le marché de l’emploi : 130 000 créations de postes prévues en France d’ici 2020 (cf Plan Big Data) ou encore une pénurie annoncée, d’ici 2 ans, de 190 000 Data Scientist aux Etats Unis selon cf McKinsey. Ces profils à mi-chemin entre les statistiques et l’informatique devront être armés pour maîtriser les nouveaux types de données, les derniers outils ou langages mais aussi les méthodes pour exploiter toutes ces informations.

Ainsi de plus en plus de formations s’adaptent, voire se créent, pour proposer sur le marché ces CVs encore trop rares : ENSAE, Telecom Paris Tech, ENSAI, ENSIMAG, Polytechnique, Paris Dauphine, Telecom Nancy etc… Les étudiants d’aujourd’hui peuvent décider de prendre cette voie et ainsi s’assurer un bel avenir en termes d’employabilité – attention quand même à vivre une réelle histoire d’amour avec la donnée sans quoi le temps passé derrière un écran pourra sembler très long, la tension de ces profils sur le marché n’incitera pas les entreprises à les faire bifurquer vers d’autres domaines.

Les entreprises font actuellement toutes face à d’immenses enjeux de compétitivité liés à la maîtrise des données, la pénurie de Data Scientist n’en est que plus préoccupante dans une optique de recrutement. Cette problématique-là a toutefois tendance à en cacher une autre : quid des centaines de milliers de personnes qui ont déjà un métier analytique ? Des changements sont-ils à opérer ? Alors si oui lesquels ?

  1. Une transformation inéluctable

Au quotidien un statisticien « vieille école » peut, sans problème, opérer sans tenir compte du monde qui change autour de lui : les analyses, modèles ou reporting ont toujours besoin d’être produits et les méthodes ou outils de 2010 fonctionnent encore très bien.

Nous pouvons cependant nous interroger sur pérennité d’une telle situation : combien de temps peut-on se couper des données de l’IOT (Internet Des Objets) ? Combien de temps peut-on se passer de moteur de calculs ultra performants ? Combien de temps peut-on considérer qu’Excel est LE meilleur moyen de restituer visuellement des résultats ? Je n’ai bien sûr absolument pas la prétention de répondre à ces questions mais appréhender ces sujets avant ses concurrents représente un avantage indéniable. A l’heure où « le lien client » est la quête absolue, le graal des marques, il apparait suicidaire de ne pas tout faire pour bien connaitre les consommateurs afin de toujours mieux les servir. Pour un assureur le défi est double car au-delà de la connaissance client le cœur de son business est basé sur des données pour maîtriser et piloter ses risques.

Si l’on se réfère au web alors le virage, a minima sémantique, vers la Data Science a déjà été pris. Il a sans doute été boosté en 2012 par l’article de la médiatique Havard Business Review « Data Scientist: The Sexiest Job of the 21st Century ».

Tendances des recherches Google, comparatif Statistician/DataScientist:

Ce phénomène n’est malheureusement que virtuel, il s’agit de « DataScienceWashing » consistant à retoucher son titre sur LinkedIn pour passer subitement de Statisticien à Data Scientist. Ces mises à jour n’étant que très rarement justifiées par des compétences nouvelles, il faut plus y voir un effet d’aubaine par rapport au déséquilibre offre/demande évoqué un peu plus haut.

Contrairement aux réseaux sociaux, dans la réalité opérationnelle, les fonctions analytiques sont dans l’obligation d’évoluer sous peine d’être ringardisées par les nouvelles générations – ou pire, d’être un facteur de non compétitivité pour leurs employeurs. Ceci serait d’autant plus dommage que la Data Science est en fait une discipline tellement large que tous les profils et toutes les expériences peuvent y trouver une place de choix. Sans pour autant qu’il y ait d’urgence chacun doit s’interroger sur les compétences techniques et technologiques cibles pour son poste :

  • La matière première, la donnée elle-même, change : nouvelles sources à aspirer, explosion des volumes, formats sans cesse différents ; il est généralement considéré que 75% à 80% du temps d’un projet analytique est lié à la préparation des données, réussir cette phase demande une curiosité et des techniques qui n’étaient pas ou peu enseignées il y a 10 ans dans les universités et écoles

  • Les méthodes d’analyse, notamment de modélisation, se sont aussi considérablement enrichies grâce aux nouvelles capacités de calculs informatiques. Dans certaines situations les modèles les plus efficaces ne sont pas forcément issus de lois statistiques mais basés sur des approches empiriques « Machine Learning »

  • Le paysage logiciel est lui aussi pris d’une frénésie de nouveaux produits : stockage et traitement sont maintenant distribués, la préparation n’est plus une étape obscure mais bien LE moment de vérité pour réussir un projet, la modélisation ultra complexe est à la portée de tous et la data vizualisation est devenue à elle seule un marché à part entière. Apprivoiser ces outils peut varier de quelques heures (par exemple Tableau pour de la Data Vizualisation) à plusieurs mois (par exemple R, Python ou Spark qui sont les langages de programmation à la mode)

Que ça soit une simple mise à niveau ou une profonde refonte du métier la transformation est inévitable, voire déjà en marche dans de nombreuses entreprises.

  1. Les principaux axes de cette transformation

Les évolutions identifiées se résument en deux points : la culture et les moyens.

Concernant le premier cité il faut bien distinguer des niveaux très différents : la stratégie de l’entreprise et l’acculturation ou appropriation des lignes métiers.

La stratégie est le reflet de la volonté des dirigeants d’investir de l’argent et du temps dans ce domaine ; il s’agit d’un préalable incontournable à toutes démarches. Cela permettra aussi l’acceptation des premiers échecs et premières déceptions qui ne manqueront pas d’être soulignés par les plus détracteurs.

L’acculturation des métiers s’avère également très challengeante : nous parlons avant tout d’êtres humains, chacun souhaite du changement mais n’est pas personnellement prêt à le vivre. En premier lieu on peut citer la souplesse qui, bien que peu naturelle, est à adopter dans la manière de travailler : le cycle permanent d’innovation fait de l’adaptabilité la qualité comportementale numéro un. De même l’échec fait partie de l’ADN même de la Data Science, celui-ci permettant d’apprendre dans un univers qui ne serait plus jamais figé. Les expressions habituellement liées à la transformation digitale telles que « Fail Fast » ou « Test and Learn » sont régulièrement utilisées.

A noter que la culture des métiers analytiques est d’autant plus difficile à faire bouger que finalement, techniquement, une des chances du secteur est qu’il doit se réinventer régulièrement depuis les années 1960 et l’avènement de l’informatique. Ceci est lié à la croissance des capacités de calcul ; le phénomène actuel, sur ce point, est plus une accélération (fulgurante) qu’une rupture. Ces profils ont donc, à juste titre, le sentiment d’être rôdés aux nouveautés, sauf qu’on ne parle pas là simplement d’outillage mais bien de méthodes de travail et d’état d’esprit.

Au niveau des moyens la transformation peut s’appuyer sur des atouts complémentaires :

  • L’attractivité du sujet : les acteurs du secteur sont par définition des passionnés des données et de leur exploitation. L’enthousiasme général sert de moteur interne et démultiplie l’impact de chaque euro investi

  • Un écosystème riche : académiques, prestataires, fournisseurs, partenaires etc… les possibilités d’ouverture et d’appui sur l’extérieur sont nombreuses et peuvent potentiellement combler les manques internes

  1. Quelle traduction concrète chez Covéa ?

Chez Covéa la démarche s’est organisée au niveau groupe, sous l’impulsion du Comex, à partir de 2014 et le lancement d’un programme transverse Big Data. Le dispositif en place, depuis, s’appuie avant tout sur la formidable énergie et l’expertise des métiers analytiques en interne. Le groupe, en France, est composé d’environ 22 000 collaborateurs, dont plusieurs centaines exploitent au quotidien les données : actuaires, chargés d’études, statisticiens, dataminers, chargés de pilotage, etc…

Le volet purement technique est abordé à travers des formations « longues » pour faire émerger des « ambassadeurs » : Actuaires Data Scientist, CES Telecom Paris, CES ENSAE etc… Des cursus plus courts, sur quelques jours, viennent en complément, presque une centaine de personnes sont formées en 2016 en interne à des technologies ou méthodes de Data Science « moderne » (R, HIVE, Text Mining etc…).

Etant donné la taille du groupe la montée en compétences passe aussi beaucoup par le partage de bonnes pratiques et de connaissances pointues : nous avons organisé des Club, Programmes et même « Data Class » pour diffuser les idées et le savoir-faire. L’objectif est que chacun puisse trouver le contenu et le format adapté à son niveau et sa disponibilité ; à en juger par la rapidité du remplissage des places pour les Data Class (sorte de cycle de cours internes) la curiosité et la motivation des participants sont au rendez-vous.

Enfin, un plan de communication interne, des événements et des partenariats sont mis en place pour apprendre et s’imprégner de la culture Data Science. A titre d’exemple nous pouvons citer les liens tissés avec le monde académique grâce la chaire de recherche ACTINFO. Chaire financée par Covéa en partenariat avec l’ENSAE, Paris Est, Rennes I et l’Institut Louis Bachelier, dont l’objectif est de comprendre les impacts du Big Data en actuariat. Dans un autre style nous avons organisé un Data Challenge en juin 2016 : concours de modélisation réunissant soixante collaborateurs pendant deux jours qui se sont totalement investies pour développer le meilleur modèle prédictif d’un phénomène choisi.

Toutes ces initiatives aident à une mobilisation et une émulation de la communauté analytique chez Covéa. Elles jouent le rôle de complément et d’accélérateur des projets Data Science réalisés par les différentes équipes du groupe, que ça soit dans les marques ou les directions transverses.

En 2017 le mouvement se poursuivra, soutenu par ceux qui ont été formés en 2016 mais aussi les nouveaux arrivants ; des nouveaux pour lesquels nous nous assurons qu’ils sont dotés d’un savoir-faire et d’un état d’esprit porteur de changement.

  1. Qu’en conclure ?

Qu’on le veuille ou non la transformation des métiers analytiques est en marche et s’accélère, toutefois mon sentiment est que l’accueil général est plus enthousiaste que craintif. Alors autant en profiter pour ne pas en faire une menace mais bien un facteur de modernisation et d’engagement des collaborateurs. Ce n’est quand même pas tous les jours que notre job est considéré comme le plus sexy du 21ème siècle !

Groupe d’assurance mutualiste, Covéa est un acteur majeur de l’assurance, présent sur les principaux marchés et leader en dommages et responsabilité en France. Avec ses marques MAAF, MMA et GMF, le Groupe assure plus de 11,4 millions de Français. Son chiffre d’affaires 2015 dépasse 17,2 milliards d’euros dont 15 % est réalisé à l’international. Covéa compte 26 000 collaborateurs dans le monde dont plus de 21 000 en France.
Baptiste Beaume travaille à la Direction Marketing et Transformation Stratégiques du groupe sur les sujets big data, et est initiateur
 de la chaire ACTINFO de l’Institut Louis Bachelier, valorisation et nouveaux usages actuariels de l’information, dont l’ENSAE est partenaire.