L’exploitation marchande des données personnelles (DP) a donné lieu à une importante littérature en économie et en marketing (Hui & Png [2006] ; Anderson & Moore [2006] ; Rochelandet [2010], Tucker [2012], Acquisti et al. [2016]). La collecte et la transformation de ces ressources informationnelles par les entreprises y sont présentées comme une source de bien-être pour les consommateurs, d’innovations et d’opportunités commerciales inédites, mais également de menaces sur la vie privée et d’externalités négatives pécuniaires. Dans ce dernier cas, les exploitants de DP peuvent par exemple opérer des stratégies de discrimination par les prix sur les marchés de biens de consommation courants, de l’assurance, des prêts bancaires, du travail… en fonction du profilage des individus : les individus les plus riches, les moins solvables ou présentant des risques de santé paieront un prix supérieur.

Les entreprises collectent des données sur leurs clients pour les exploiter selon des modalités très différentes : les identifier, communiquer ou interagir avec eux de façon plus ou moins ciblée, différencier leurs prix ou la qualité de leurs offres en fonction de leurs profils (marché du crédit bancaire par exemple), animer une communauté en ligne, faciliter l’appariement entre les utilisateurs de leurs services (services de réseautage social ou de rencontre en ligne par exemple), vendre ces données. Les moyens de collecte et de production de ces informations sont eux-mêmes très diversifiés. Les individus peuvent ainsi divulguer volontairement leurs données par déclaration (formulaires d’abonnement et d’inscription, données de transaction, etc.) ou en acceptant que leurs données soient enregistrées (traces de navigation, localisation géographique, mots clés extraits de leurs commentaires et discussions en ligne, etc.). L’exposition de soi ex post (Rallet & Rochelandet [2011]) s’avère également une source majeure d’informations sur l’internet via la collecte massive de données enregistrées par des traceurs et leur traitement par des algorithmes permettant de déduire des informations à valeur ajoutée à partir de données brutes très disparates.

Dans certains cas, la collecte des données d’usage bénéficie essentiellement à leurs exploitants. Par exemple, les sites de vente en ligne analysent l’audience web et son impact sur les ventes. La connaissance des pages consultées antérieurement par les internautes leur révèle des informations précieuses pour optimiser leur campagne promotionnelle. De même, les avis postés en ligne permettent d’alimenter au moindre coût les systèmes de recommandation de plateformes comme Amazon et Netflix qui orientent les choix de leurs clients, les fidélisent et différencient leurs services.

L’exploitation des DP apparaît mutuellement avantageuse pour leurs exploitants et les individus auprès de qui elles sont collectées. Leur granularité permet un ciblage précis de la publicité, plus bénéfique a priori pour les consommateurs que des messages indifférenciés (Tucker [2012]). Dans le cas des réseaux sociaux numériques et des services d’infomédiation comme les moteurs de recherche, ces données permettent aux opérateurs de plateformes numériques et aux entreprises y greffant leurs activités (services, applications, contenus) d’offrir des services spécifiques, de les personnaliser, mais également de dégager des revenus issus de la publicité finançant la production de biens informationnels et de service en ligne bien souvent délivrés gratuitement. Quant aux individus, ils bénéficient de cette gratuité, mais surtout ils retirent une valeur d’usage de contenus et de services élaborés directement ou indirectement grâce à l’exploitation de leurs DP. Directement sur les plateformes d’appariement : l’utilité de Facebook ou de Meetic mais également des services de recommandation, serait nulle sans la divulgation de ses données à travers les déclarations de ses centres d’intérêt, l’échange d’opinions, la recommandation de certains évènements ou biens culturels, etc. Indirectement, car la contrepartie de la gratuité de la plupart des services en ligne est leur financement par les revenus issus de la publicité. On retrouve en partie le modèle traditionnel des médias (radios, télévision en clair, presse gratuite), mais la grande différence avec les modèles numériques est que le modèle publicitaire ne se fonde pas ou nettement moins sur la taille de l’audience et davantage sur sa qualité à travers les publicités contextualisée et ciblée.

Les modèles de plateformes numériques se distinguent selon la nature des effets de réseau croisés et surtout les modes d’appropriation de la valeur. Les consoles de jeux ou les systèmes de cartes bancaires reposent sur une appropriation directe de la valeur (prix des jeux, frais bancaires) n’affectant en soi pas la qualité du service. En revanche, dans les modèles d’appropriation indirecte, des acteurs tiers apparaissent comme les annonceurs et peuvent être source d’externalités négatives pour les utilisateurs finals en fonction de leur publiphobie et, pour les modèles basés sur la publicité ciblée, du coût psychologique inhérent à la sensation d’être observés.

Les plateformes numériques varient également selon leur dépendance aux données tant au niveau de leur proposition de valeur que de leurs modèles de revenus. Ainsi les services proposés par Facebook dépendent étroitement et directement des données de ses utilisateurs, tandis que des acteurs comme Apple en bénéficient indirectement. La plupart des applications sur son magasin en ligne permettent de collecter des petits morceaux de données, lesquels sont centralisés et agrégés par des intermédiaires comme Flurry. Ce dernier revend des profils à des annonceurs qui peuvent cibler des messages publicitaires aux utilisateurs d’applications gratuites. Les revenus qui en découlent sont en partie partagés avec les fournisseurs d’applications. Apple profite de ce système indirectement, car il incite les développeurs à proposer des applications sur sa plateforme et donc de différencier davantage ses terminaux (tablettes, smartphones).

Cependant, cette économie « gratuite » ne l’est pas pour tout le monde. D’un côté, les producteurs de ces plateformes numériques, services, contenus et applications doivent financer la production et la mise en ligne de leurs prestations, de même que les financeurs de ces services (les annonceurs notamment) doivent payer pour atteindre la cible de leur campagne et les investisseurs sur les marchés du capital-risque (start-up non cotées) ou les marchés financiers (Google, Facebook…). De l’autre, les utilisateurs finals de ces services risquent de subir des coûts sous la forme de discrimination tarifaire, d’atteinte à la quiétude et à la vie privée, de perte de temps à trier les messages non sollicités… Plus généralement, une collecte et une utilisation trop intense des DP peuvent réduire la valeur des plateformes en affectant le bien-être des utilisateurs finals des contenus, d’applications et de services sur ces plateformes. Par exemple, les campagnes publicitaires à la fois trop invasives et ciblées ont une efficacité réduite (Goldfarb & Tucker [2011]). Une des conditions de viabilité des modèles de plateformes est donc d’éviter la perte de confiance et les réactions négatives des individus qui peuvent les amener à rejeter les publicités via des applications dédiées (White et al. [2008]). Les expérimentations à grande échelle menées par des opérateurs comme Facebook ont suscité des réactions comparables. Or, redonner les moyens de contrôle de la divulgation de leurs données peut augmenter la confiance des internautes et accroître l’efficacité des modèles d’affaires numériques. Cela peut consister à associer un mécanisme de contrôle des DP pour diminuer l’impact négatif de la personnalisation de la publicité due à l’usage de données collectées sur la plateforme.

Pour autant, en raison de la nature même de leurs modèles, les opérateurs de plateformes et les prestataires de services en ligne ne sont pas incités à implémenter des solutions pro-privacy réellement efficaces. Les sites les plus intrusifs sont dans les faits les plus performants (Cecere & Rochelandet [2013]). Les firmes ont donc tout intérêt à développer des services et des applications poussant les individus à s’exposer et à divulguer des informations personnelles, parfois très intimes. Une alternative pourrait être l’abandon du modèle gratuit pour le « tout-payant », mais encore une fois, quelles incitations pour des acteurs intrusifs comme Facebook ou Google pour qui l’offre payante enraillerait les effets-réseaux et pourraient exposer à une concurrence plus importante (de nouveaux acteurs pouvaient à leur tour proposer des services gratuits…). Enfin, l’implémentation d’outils de contrôle en direction des utilisateurs finals, voire l’obligation légale de concevoir des modèles d’affaires respectueux de la vie privée (Privacy-by-design), pourraient créer une illusion de contrôle forte (Brandimarte et al. [2011]), dès lors que les utilisateurs finals ne maîtrisent au fond que les conditions de divulgation et non les usages et partages effectifs qui sont faits de leurs données par la suite. Dans cette perspective, ne vaudrait-il pas mieux concevoir des outils pro-privacy en phase avec le développement des services et des modèles d’affaires numériques et davantage orientés vers l’apprentissage des risques par les individus utilisateurs de ces nouveaux services (Pucheral et al. [2016]) ?

 

Acquisti, A., C.R. Taylor, L. Wagman (2016) « The economics of privacy », Journal of Economic Literature, vol. 54, n°2, pp.442-492.
Anderson R., T. Moore (2006) « The economics of security », Science, vol.314, n°5799, pp.610–613.
Brandimarte, L., A. Acquisti, G. Loewenstein (2011) « Misplaced confidences: Privacy and the control paradox », Social Psychological and Personality Science,
Cecere, G. F. Le Guel, F. Rochelandet (2015) « Les modèles d’affaires numériques sont-ils trop indiscrets ? Une analyse empirique », Réseaux, vol.33, n°189, pp.77-101.
Hui, K.L., I.P.L. Png (2006) « The economics of privacy », in Economics and Information Systems, Handbooks in Information Systems, vol.1, chapitre 9, ed. Terrence Hendershott, Elsevier.
Pucheral, P., A. Rallet, F. Rochelandet, C. Zolinski (2016) « La Privacy by design : une fausse bonne solution aux problèmes de protection des données personnelles soulevés par l’Open data et les objets connectés ? », Légicom, 2016/1, n°56, pp.89-99.
Rallet, A., F. Rochelandet (2011) « La régulation des données personnelles face au web relationnel : une voie sans issue ? », Réseaux, vol.29, n°167, pp.19-47.
Rochelandet, F. (2010) Economie des données personnelles et de la vie privée, La Découverte.
Goldfarb, A., C. Tucker (2011) « Online display advertising: Targeting and obtrusiveness », Marketing Science, vol.30, pp.389-404.
Tucker, C. E. (2012) « The economics of advertising and privacy », International journal of Industrial organization, vol.30, n°3, pp.326–329.
White, T., D. Zahay, H. Thorbjornsen, S. Shavitt (2008) « Getting too personal: Reactance to highly personalized email solicitations », Marketing Letters, vol.19, n°1, pp.39–50.