Mois : octobre 2016

« L’Euro : comment la monnaie unique menace l’avenir de l’Europe » de Joseph E. Stiglitz

Partagez cette page : La crise de 2008 a agi tel un révélateur en faisant ressortir les défauts originels du projet économique de l’Union Européenne. L’intégration économique avait surpassé le projet politique en se construisant sur des bases qui favorisent les divergences plutôt que la convergence. La question est alors : Peut-on sauver l’euro ? En mettant en évidence la mauvaise gouvernance de la Banque Centrale Européenne et en expliquant pourquoi l’austérité a condamné l’Europe à la stagnation sans fin, Jospeh E. Stiglitz pose un diagnostic sévère sur la situation actuelle. Il explique pourquoi l’euro était vicié dès sa naissance. Mais...

Lire la suite

La nécessaire transformation des métiers analytiques

Partagez cette page : L’arrivée puis la pérennisation du Big Data dans le monde professionnel impacte pleinement le marché de l’emploi : 130 000 créations de postes prévues en France d’ici 2020 (cf Plan Big Data) ou encore une pénurie annoncée, d’ici 2 ans, de 190 000 Data Scientist aux Etats Unis selon cf McKinsey. Ces profils à mi-chemin entre les statistiques et l’informatique devront être armés pour maîtriser les nouveaux types de données, les derniers outils ou langages mais aussi les méthodes pour exploiter toutes ces informations. Ainsi de plus en plus de formations s’adaptent, voire se créent, pour proposer...

Lire la suite

Big Data (3) – Comment garantir au mieux la confidentialité ?

Partagez cette page : Les données ou statistiques, détenues ou élaborées par des administrations ou des entreprises, sont en général construites à partir d’informations individuelles, ce qui pose la question de la protection des sources, c’est-à-dire de la vie privée, compte tenu des progrès constants de la science et des process de traitement. Comment établir et maintenir la confiance du grand public, partie prenante numéro 1, tout en respectant l’équilibre entre promesse de confidentialité et utilisation des données recueillies ? Pour y répondre, deux approches sont complémentaires : l’une est réglementaire, et montre que les Etats ont pris conscience depuis longtemps...

Lire la suite

Big Data (2) – phénomène éphémère ou de fond ?

Partagez cette page : Il est légitime de se poser cette question, tant certains sujets ont parfois été montés en épingle, avant de reperdre leur intérêt. Cependant, il ne semble pas que les données massives soient une mode passagère. Les vraies questions pourraient porter sur sa durée et sur ses conséquences sociétales. Combien d’années va vivre ce nouveau paradigme de juxtaposition de sources ? Comment se définir dans une société d’algorithmes traitant en temps réel des images numériques avec le minimum d’interventions humaines ? Il est probable que nous soyons entrés pour au moins une décennie dans un monde à...

Lire la suite

Big Data (1) – la fin des échantillons ou nouveau paradigme ?

Partagez cette page : De l’échantillon …. Depuis les premières tablettes cunéiformes du pays de Sumer jusqu’à la fin du XIXème siècle, on peut considérer que le monde a vécu sous le règne quasi-exclusif de « l’exhaustivité ». Il y eut bien, au milieu du XVIIème siècle, de premières approches d’échantillonnage avec l’école dite de l’arithmétique politique de John Graunt et William Petty en Angleterre, et les avancées de Sébastien Le Prestre de Vauban et Jean-Baptiste Colbert en France : Vauban publie en 1686 un livre intitulé « Méthode généralle et facille pour faire le dénombrement des peuples ». Cependant, ces tentatives innovantes ne...

Lire la suite

Abonnez-vous à notre newsletter

A propos de Variances.eu