Résumé

Depuis longtemps est posée la question de l’attention à un contenu, à un message, à une information, dans un environnement qui, alors, n’était pourtant pas à la limite de la saturation (H. Simon [22], J. Axelrod [2]). Les travaux de Michaël Goldhaber [16], Yves Citton [4], [5], [6], Dominique Boullier [3] entre autres ont permis de faire avancer la discipline de l’attention dans un contexte hyperconnecté. L’économie des médias est, encore actuellement, majoritairement dominée par la notion de contact avec un média, un support, un contenu, selon un modèle conçu dans le cadre d’une offre bien plus réduite qu’actuellement. La convergence numérique et la naissance des contenus de l’Internet grand public nous ont fait entrer dans une multi-sollicitation permanente, qui permet non pas de supprimer la notion de contact, mais de le considérer comme une condition nécessaire à compléter par l’attention ou l’intérêt suscité par ce contact.   

1 – Introduction

L’écosystème des médias est composé historiquement de six principales familles d’acteurs : les médias eux-mêmes, en tant qu’éditeurs et agenceurs de contenus, leurs régies publicitaires, les producteurs et détenteurs de droits des contenus, les annonceurs publicitaires qui achètent l’espace, leurs conseils que sont les agences (création et conception des spots de publicité ; organisation précise de la campagne), et enfin les distributeurs. Même si Internet et plus généralement le marketing digital ont favorisé l’arrivée de nouveaux métiers autour des data et de leur exploitation, le cadre économique est aisément décrit par les relations entre ces grandes familles d’acteurs.

Le contact avec un contenu est depuis longtemps à la base de la monétisation de cette économie, le mot contenu étant à prendre au sens large : émission, œuvre, série, article, événement, spectacle sportif, publicité. C’est l’audience d’un titre de presse ou d’un moment précis en radio ou à la télévision qui va donner la valeur en euros à l’espace acheté par une agence pour le compte de son annonceur.

2 – Les bases de l’économie du contact

Historiquement, les médias ont bâti leur économie et leur valorisation sur la notion de contact, dont l’indicateur publicitaire GRP (Gross Rating Point) est le symbole, en tant que mesure de la performance d’une campagne ou même d’élément d’arbitrage financier. Le calcul du GRP s’appuie sur les résultats des dispositifs de mesure d’audience, que ceux-ci soient élaborés via un échantillon probabiliste, un panel ou une approche hybride entre données d’échantillonnage et big data. Certes la mesure d’audience n’est pas uniquement destinée aux utilisations publicitaires, et l’économie des contenus et des œuvres de tout genre est bâtie également sur leurs performances lors de leur diffusion par les médias ; néanmoins, le fait que la principale source de financement de l’écosystème médias soit les recettes publicitaires donne à cette évaluation quantitative un rôle majeur.

Pour les médias audiovisuels, il existe deux grandes familles d’indicateurs, l’une basée sur le contact, l’autre sur la durée.

L’indicateur de référence de la première famille est l’audience cumulée. Ainsi, en radio, pour un segment C de population et une période temporelle, la journée par exemple, l’audience cumulée du média radio ou d’une station est le nombre ou la proportion de personnes de C ayant écouté la radio ou la station quelle que soit la durée de cette écoute : comptage des auditeurs ayant eu un contact avec le média ou la station, sans tenir compte du temps de ce contact. Cet indicateur est général : nombre de téléspectateurs de la télévision, d’une chaîne, d’une émission, d’une tranche horaire, quelle que soit la durée de vision, nombre de « visiteurs » d’un site ou d’une application sur Internet, quel que soit le temps de surf, nombre d’entrants en salle de cinéma, nombre de lecteurs en presse.

Pour la radio, la télévision et internet, toujours pour une catégorie C de population, il est également possible de mesurer la durée de chaque contact, c’est-à-dire le temps passé à écouter une station de radio, à regarder une émission TV, à surfer sur un site ou une application. La deuxième famille contient donc des indicateurs basés sur la durée D(i) du contact de l’individu i avec un média (ou un programme, ou un moment) ou d(i), proportion du programme ou du moment vue ou écoutée. D ou d représentent en quelque sorte l’intensité du contact, sa graduation.

La moyenne des d(i) sur C s’appelle taux moyen en télévision, quart d’heure moyen en radio. On calcule aussi la moyenne des durées D(i) sur tous les individus de C, conduisant à la durée moyenne d’écoute par individu (DEI) en radio ou en télévision. En réduisant C aux seules personnes ayant consommé le média, on obtient la durée moyenne d’écoute par auditeur (DEA) ou téléspectateur (DET), ou la durée moyenne de visite par internaute.

Le contact publicitaire

Le domaine des contenus publicitaires a donné naissance à des indicateurs spécifiques, bien que liés aux indicateurs précédents.

Illustrons le principe pour la télévision. Pour une campagne publicitaire définie par K diffusions d’un spot, on considère la variable aléatoire X égale au nombre de contacts avec la campagne qu’a eus un individu : 0 ≤ X ≤ K. Les probabilités p(x) = P(X = x), x allant de 0 à K, définissent la loi de X, distribution de probabilité des contacts. L’indicateur de référence d’une campagne de publicité est le GRP, ou Gross Rating Point, égal à l’espérance de X : GRP = ∑x.p(x), x = 0 à K. Il mesure a posteriori la performance de la campagne publicitaire ; il est aussi l’indicateur à optimiser pour organiser a priori la campagne – c’est le rôle du mediaplanning. La couverture de la campagne est 1 – p(0), c’est-à-dire la proportion de la population étudiée ayant eu au moins un contact avec le spot.

Deux approches coexistent pour quantifier le contact.

La première est dichotomique, contact ou non contact. On peut la formaliser par une variable de Bernoulli Y à valeurs dans {0, 1}, Y = 1 si contact et Y = 0 si non. L’audience cumulée est le comptage des personnes pour lesquelles Y = 1.

La seconde consiste à définir une intensité de contact, continue, variant sur l’intervalle [0, 1], approche à laquelle on peut associer une variable Z égale, par exemple en télévision, au rapport de la durée vue d’un programme et de la durée totale de ce programme. Z est le taux de vision, et il en résulte le taux moyen.

En presse papier, le contact est de première nature, dichotomique. En télévision, la variable utilisée est une intensité de contact, égale à la proportion de l’écran publicitaire qui a été vue : un téléspectateur qui a regardé le quart d’un écran sera affecté de 0,25 contacts.

Pour Internet, le contact a été d’abord défini de façon dichotomique par le téléchargement d’une page HTML contenant un élément publicitaire, quels qu‘aien0t été la durée d’exposition et le format publicitaire, et même si cet élément n’est pas apparu sur l’écran utilisé. La diversité des formats de publicité sur Internet fait que la notion même de durée n’a pas forcément un sens. L’apparition de spots vidéo, comme en TV, a favorisé l’apparition de la notion d’intensité de contact.

3 – Demain : vers une économie de l’attention ?

Première évolution : des équipements digitaux de plus en plus présents

Le multi-équipement est devenu la norme. Quelques chiffres sur les équipements avec accès médias au sein des foyers français. Fin 2016, le ménage moyen possède 6,5 écrans, dont 3,5 écrans mobiles ; ce nombre moyen d’écrans passe à 9,5 pour les ménages avec enfant. 94 % des foyers possèdent au moins un téléviseur à domicile, 43 % en sont multi-équipés, 60 % ont au moins un téléviseur connecté. En réception de chaînes TV, un tiers des ménages est abonné à une offre payante, donc à un choix très large. Près de 9 foyers sur 10 ont accès à Internet, 85 % des ménages sont équipés d’au moins un ordinateur, et plus de 40 % en sont multi-possesseurs. Pratiquement 80 % des foyers sont en haut débit. 45 % disposent au moins une tablette tactile, et seulement 5 % n’ont pas de téléphone mobile. Le taux d’équipement des individus en smartphone dépasse 2/3. Ces écrans mobiles permettent l’accès hors domicile, et ouvrent des nouveaux lieux de sollicitation et de sociabilité : toujours fin 2016, 70 % des personnes de 15 ans et plus, soit 35 millions, sont inscrites sur au moins un réseau social.

Deuxième évolution : un individu de plus en plus multi-sollicité

Herbert Simon, lauréat du prix Nobel d’économie en 1978, a révolutionné de multiples domaines allant de la micro-économie et du comportement individuel jusqu’à l’usage de l’ordinateur dans les procédures de décision, étant l’un des pionniers de l’intelligence artificielle. Il a écrit un texte fondateur sur l’attention, intitulé Designing Organizations for an Information-Rich World, publié en 1971 [22]. Extrait : « a wealth of information creates a poverty of attention, and a need to allocate efficiently among the over-abundance of information sources… ».

On devine l’approche micro-économique de l’allocation optimale des ressources rares que sont l’attention et le temps disponible, et pourtant le contexte des médias en 1971 est limité : diffusion exclusivement analogique, dominée par le modèle « un média = un récepteur », sans micro-informatique, smartphones, tablettes, internet. En France, en 1971, en médias audiovisuels n’existent que deux chaînes de télévision appartenant à l’Etat (la « une » et la « deux », sans autre dénomination), quatre stations de radio, Europe 1, RMC, RTL et Sud Radio, et les antennes du groupe public Radio France.

Qu’écrirait maintenant Herbert Simon à propos du comportement de l’individu ATAWAD® (Any Time, Any Where, Any Device), concept d’avant-garde créé et marque déposée par Xavier Dalloz en 2002, représentant un individu environné par une offre pléthorique en radio avec l’explosion de la bande FM, en télévision avec le passage au numérique, l’apparition et le succès des multiples devices mobiles et la convergence numérique, sans oublier la rapide diffusion d’internet et le développement des réseaux sociaux ?

En 1971, Herbert Simon fait référence à toutes les sollicitations reçues par une personne, ce qui dépasse le seul cas des médias. De nombreux chercheurs ont tenté d’évaluer le nombre quotidien de contacts publicitaires, médias ou hors-médias. C’est une tâche complexe, et les comptages dépendent de la personne, de son activité – sort-elle de chez elle fréquemment ou rarement ? –, de son type d’habitat – urbain, rurbain, rural –, et même de son niveau d’attention. Les estimations vont de 500 à 2 000 par jour. A la réception de ces messages publicitaires médias ou hors-médias, il faut ajouter celle des messages non publicitaires, et, nouveauté par rapport aux années soixante-dix, toutes les informations qu’un individu envoie lui-même en tant qu’émetteur via son PC, son smartphone, sa tablette, en utilisant son répertoire personnel ou les réseaux sociaux auxquels il appartient.

Troisième évolution : les mutations des investissements publicitaires

En France, les recettes publicitaires nettes des médias historiques (publicité extérieure, cinéma, presse, radio, télévision) ont été en 2016 de 7,5 milliards d’euros, et de 11 milliards en y ajoutant internet (Source : IREP 2016). Internet est le média dominant, avec 3,45 milliards soit 31,4 % des recettes, suivi par la télévision (3,25 Mds €, 29,6 %), puis la presse, toutes familles confondues (2,29 Mds €, 20,8 %).

Pour comparer, en l’an 2000, année où Internet ne fait pas encore partie des médias mesurés et n’est qu’un média émergent (seulement 5 % des foyers français ont alors accès à Internet), le total des recettes publicitaires des médias historiques est voisin de 10,1 milliards d’euros, la presse venant en première position avec un peu plus de 5 milliards (50,4 %), la télévision occupe la deuxième place avec 3 milliards (30,1 %) (Source : IREP 2000).

Le paysage français a bien changé en 16 ans : globalement, les recettes sont restées presque stables, mais d’une part les montants sont en euros courants, et, d’autre part, cette apparente stabilité est due à l’intégration d’Internet aux cinq médias historiques. En outre, la hiérarchie des investissements des annonceurs publicitaires a été modifiée. Pour la première fois, en 2016, Internet a pris la première place, devant la télévision.

Non seulement la diffusion digitale a bouleversé les modes de consommation des et vers les individus, mais elle a modifié les pratiques du marché et diversifié les modes de communication : apparition des déclinaisons numériques des titres de presse et de l’affichage, généralisation de la télévision numérique, pratiques de ciblage de l’Internet bientôt étendues à la télévision avec l’achat programmatique et l’emploi des cibles comportementales ou intentionnistes.

Et donc en marche vers l’attention ?

Le monde actuel est celui de la multi-sollicitation à haute fréquence, de la multi-activité, du multitâche. Par la convergence numérique, nous voici émetteur et récepteur permanents d’informations de toute nature. Nos ordinateurs ou smartphones se remplissent de notifications professionnelles ou personnelles via les réseaux sociaux, de tout ordre : mails, SMS, textes, images fixes, video, sans oublier toutes les sollicitations publicitaires électroniques ou non. Nous sommes bien loin de l’oligo-offre médiatique qui régnait lors de l’émergence de la notion de contact et du GRP.

Il est donc majeur pour l’émetteur d’un message non pas de créer seulement un contact mais d’attirer l’attention et l’intérêt du destinataire, lui donner envie d’aller plus loin, d’en prendre la plus grande connaissance. Si le contact doit toujours exister, condition nécessaire de l’efficacité éventuelle du message, l’augmentation précédemment mentionnée du nombre d’écrans et d’objets de communication, du double rôle d’émetteur et de récepteur et de l’effet de résonance des réseaux sociaux, rend fondamental le rôle de l’attention lors de la première rencontre avec un message.

Cette volonté de capter rapidement l’attention n’est certes pas une création de notre époque. Elle est présente dans toute l’histoire humaine. Ainsi, tout enseignant, du primaire au supérieur, a été confronté à la difficulté d’attirer l’attention et d’éveiller l’intérêt de ses élèves. Ce n’est pas un concept nouveau : Aristote, dans sa Rhétorique, a parfaitement décrit les diverses dimensions d’un discours, dont l’exorde, élément initial qu’il compare au prologue d’un poème ou aux premières notes d’un morceau de musique. Son objectif ultime est de garder la concentration de ses élèves, d’éviter leur distraction, au sens fort du mot latin distractio, déchirement, séparation. Certains chercheurs évoquent même une éducation à l’attention (Lachaux, [18]).

L’Art est un domaine où, par excellence, une « œuvre » ne se contente pas d’un simple contact et devient un « chef d’œuvre » lorsqu’elle attire l’attention, maintient cette attention dans la continuité temporelle et finit par susciter l’émotion. Cette attention est même souvent une condition fondamentale de la bonne compréhension de l’œuvre. Trois illustrations prises à la peinture, à la musique et à la chanson.

Le visiteur de la National Gallery de Londres, qui passe devant le tableau intitulé Les époux Arnolfini du célèbre peintre flamand Jan van Eyck, peint en 1434, ne saurait le comprendre et l’interpréter avec exactitude s’il n’y accorde pas une grande attention. Jean-Philippe Postel, dans son livre L’affaire Arnolfini [21], détaille chaque partie du tableau et en fait découvrir le sens caché.

Les grands compositeurs d’opéras travaillaient avec soin leurs exordes, leurs ouvertures, pour familiariser le public avec certaines phrases musicales destinées à être reprises dans les actes ultérieurs. Ainsi l’ouverture de Lohengrin – le « chevalier au cygne » – de Richard Wagner (créé en 1850) contient brièvement le thème musical du cygne qui revient régulièrement dans l’œuvre, au point que Piotr Tchaikovsky va l’emprunter à Wagner et le reprendre pour marquer les apparitions d’Odile dans son Lac des cygnes (1877).

En chanson, un auteur-compositeur connaît l’importance de l’introduction musicale. L’harmonie des premières notes arpégées, à la guitare, des accords « La – La 4 – La » du succès mondial Suzanne de Leonard Cohen (écrit en 1966) attirent immédiatement l’attention, l’émotion éventuelle étant ultérieurement produite par la voix du chanteur ou la beauté du poème.

Les approches de l’attention

Les travaux de recherche sur le processus de l’attention sont souvent en amont du concept de mémorisation, les plus récents utilisant les apports des neurosciences ou du neuromarketing (Droulers & Roullet, [12]).

Dans le contexte de la publicité télévisée, ont été étudiés les effets de la création artistique au sens strict, du contexte d’exposition, de l’environnement de la personne exposée – bruit ambiant, entourage –, de la taille de l’écran, du choix volontaire ou non, actif ou subi (Davenport & Beck [7]) et même de l’implication individuelle dans les programmes contenant ou entourant l’écran publicitaire (Nahon & Tassi [20]).

L’objectif de beaucoup de ces recherches est de déterminer les effets négatifs ou positifs des paramètres de chaque facteur sur l’attention et la mémorisation d’un spot publicitaire.

En dehors des contenus publicitaires, est étudiée l’existence de différences dans l’attention allouée selon la nature du programme choisi, le genre du contenu ayant éventuellement un effet sur l’attention suscitée, via les notions d’implication et d’engagement. Sur Internet, peut-on différencier l’attention à un service ou à un contenu vidéo ou médias ? Les durées d’écoute, de vision, de surf sont-elles prédictives de l’attention, tant il semble cependant pertinent d’étudier l’hypothèse selon laquelle plus un contenu est consommé en durée et en fréquence, plus il a attiré l’attention et éveillé de l’intérêt.

Sur le plan des comportements, Davenport & Beck ([7]) décrivent le processus général de l’attention comme une succession d’étapes : prise de conscience par exposition à de multiples sollicitations (« awareness »), tri ou filtrage d’un sous-ensemble de sollicitations (« narrowing »), éventuelles prises de décision et passage à l’action. Les auteurs définissent trois dimensions : le choix (opposant l’aspect volontaire de l’exposition à l’aspect subi ou captif, comme la vision de spots publicitaires avant un film dans une salle de cinéma), l’intensité (opposant attention soutenue et attention banale), et l’allocation, c’est-à-dire la motivation d’affecter, ou pas, de l’attention à une sollicitation.

Au niveau de la théorie économique, Georg Franck ([13]) considère l’économie de l’attention comme le quatrième secteur après l’agriculture, l’industrie et le tertiaire. Yves Citton prend du recul avec l’expression « économie de l’attention » en remarquant que parler de l’attention uniquement en termes économiques est un leurre, et qu’il est préférable d’aborder l’attention avec un paradigme écologique.

Enfin, la dimension de l’attention apparaît également en psychologie individuelle ou en management, où il est montré qu’une personne à laquelle on accorde de l’attention a plus de chances d’en accorder aux autres, de façon quasi-symétrique. Nous retrouvons ici le phénomène de l’empathie (Tisseron [23], [24]).

Quoiqu’il en soit, analyser et décortiquer le processus de l’attention ne dispense pas d’essayer de la mesurer. Deux voies existent : une première basée sur la déclaration et faisant appel à la mémoire individuelle, une seconde utilisant une technologie. L’intérêt du déclaratif est de pouvoir être déployé sur un échantillon de grande taille, à coût modéré.

Les mesures déclaratives sur l’attention

Comme la plupart des domaines d’observation, la mesure de l’attention fait l’objet de divers dispositifs déclaratifs, souvent associés à une campagne publicitaire ou à un contenu spécifique. Ils consistent à interroger un échantillon d’individus et à estimer la qualité d’attention d’une personne en lui faisant reconstituer ce qu’elle a vu, écouté, regardé, lu, consulté, cette interrogation pouvant avoir lieu en spontané ou en assisté. Pour une campagne publicitaire, on calculera alors un score de mémorisation ou un score d’attribution d’une marque ou d’un contenu, ou même un score d’incitation. Les titres de presse recourent de leur côté à des études vu/lu de même nature.

Le cas de la radio en France

En France, le média radio a été précurseur de la mesure de l’attention non pas dans une logique d’étude ad-hoc ou propriétaire, mais de façon collective, pour l’ensemble des acteurs du marché. En 2002, à côté de l’étude d’audience de référence dont l’objectif est de mesurer les indicateurs usuels du média radio, Médiamétrie a mené une étude dénommée EQAR : Etude sur la Qualité d’Attention à la Radio, par sondage aléatoire téléphonique auprès d’un échantillon représentatif de 23000 personnes de 13 ans ou plus. En complémentarité avec l’audience, EQAR avait pour objectif de quantifier l’attention portée par les auditeurs aux programmes de radio, classés selon une nomenclature simple de genres : informations, musique, « talk divertissement » et « talk société » ; connaissant la station écoutée, les moments d’écoute et les programmes, il était donc facile d’attribuer un genre. Pour chacun des quarts d’heure d’écoute, chaque personne interrogée mettait une note allant de 1 à 7 traduisant son attention au programme écouté.

Quelques résultats : en premier, les auditeurs n’ont eu aucune difficulté pour évaluer leur attention, les non-réponses ou « je ne sais pas » ont été très rares puisque 98 % des sessions d’écoute ont été évaluées. La note moyenne par quart d’heure a été de 4,4 ; 52 % des notes ont été supérieures ou égales à 5, ce qui est satisfaisant car si de nombreuses sessions d’écoute de la radio sont choisies par l’auditeur lui-même, d’autres peuvent ne pas l’être car choisies par l’environnement – autre membre du foyer, conducteur en voiture, salles d’attente de cabinets médicaux ou dentaires, etc. En outre, aucune différenciation femmes-hommes n’a été relevée, les distributions et les moyennes des notes des auditeurs et auditrices étant du même ordre. Il existe cependant un « effet âge » croissant pour le genre Informations, dont la note moyenne d’attention passe de 4,3 pour les 13-24 ans à 5,1 pour les 60 ans et plus.

En termes de genre de programme, l’information a eu la meilleure note d’attention, 4,8, suivi par les émissions de talk (que ce soit du divertissement ou des débats de société) avec 4,7. Les émissions musicales ont obtenu la note de 3,7, en léger retrait, la notion d’accompagnement étant une fonction historique de la radio.

Cette étude collective a eu lieu deux années de suite, et a produit des résultats intéressants sur les différences d’attention selon les moments, les genres d’émissions, les cibles socio-démographiques. Peut-être EQAR est-elle venue trop tôt ?

Les technologies de mesure de l’attention

Au-delà du déclaratif, l’eye tracking ou « suiveur de regard » est un dispositif apparu dans les années 1990. Un appareil, placé face à l’individu, suit et analyse les déplacements du regard sur une image fixe ou mobile. Il est alors possible de tracer le parcours visuel, de déterminer les endroits de fixation du regard et leur durée.

Ce dispositif est, encore pour l’instant, plus proche d’un contexte « laboratoire » ou applicable à un petit échantillon, impossible à déployer auprès d’un panel en continu, dans la « vraie vie », pour des questions de coût.

L’IAB (Internet Advertising Bureau) emploie un système analogue pour la mesure de l’attention publicitaire sur une page d’écran internet.

Approcher la mesure de l’attention

La mesure d’audience quantitative de la télévision par système audimétrique peut également conduire à des indicateurs qualitatifs approximant l’intérêt ou l’attention. Premier exemple : pour un programme, le rapport de la durée vue et de sa durée totale est un ratio caractérisant l’assiduité au programme diffusé, et est corrélé avec un score d’attention ou d’intérêt.

Deuxième exemple, pour une émission répétitive quotidiennement ou hebdomadairement comme un feuilleton, une série : le nombre d’émissions vues.

Une troisième exemple pour approximer la mesure de l’attention consiste à classer les spectateurs d’une émission E en quatre catégories selon leur taux de vision de E, par exemple ceux qui en ont vu moins de 25 % (cat. 1), ceux qui ont vu entre 25 et 50 % (cat. 2), ou de 50 % à 75 % (cat. 3), ou enfin plus de 75 % (cat. 4). On attribue alors un score AI d’Attention-Intérêt croissant à chaque catégorie de téléspectateurs, respectivement 1, 2, 4, et 5, puis on calcule le score moyen de l’émission E :

AI(E) = 20 [p(1) + 2p(2) + 4p(3) + 5p(4)]

où le coefficient p(k), k allant de 1 à 4, est la proportion de la classe k. Le facteur multiplicatif 20 permet d’avoir un indicateur AI normé dont les valeurs varient entre 0 (l’émission E n’a eu aucun téléspectateur) et 100 (tous les téléspectateurs ont regardé au moins 75 % de E).

Il est alors intéressant de croiser audience et score AI. L’indicateur AI introduit une hiérarchie différente de celle de la part d’audience. Il montre ainsi sa complémentarité avec l’audience. Chaque case horaire, par jour nommé, peut ainsi être analysée sous la double aune de l’audience et du score d’attention et d’intérêt éveillé par chaque émission et chaque genre, dans son contexte concurrentiel.

4 – Pour conclure : après-demain, une économie de l’émotion ?

Tous les messages, informations, contenus que nous recevons ne sont pas forcément destinés à susciter de l’émotion. Prendre connaissance du temps qu’il va faire en consultant une rubrique météo nécessite un contact et un minimum d’attention, mais ne va probablement pas induire un trouble, une excitation. Ce n’est pas forcément le cas pour une chanson, un débat politique, une émission sportive, un morceau de musique, un livre, un tableau, une série ou un film, etc. Un contact avec un contenu est donc à la base de la chaîne de réaction : il est nécessaire et non suffisant pour susciter de l’attention, et si cette attention devient continue et se transforme en intérêt, peut survenir de l’émotion selon le genre de contenu suivi.

Le passage à une économie de l’émotion sera donc, par définition, partiel, réservé à certains types de sollicitations. Des travaux apparaissent sur le sujet (Influencia, [17]), en marketing ou neuromarketing au niveau académique (Giannelloni & Le Nagard [14]), Giannelloni ([15]), Droulers, Lajante & Lacoste-Badie [11]), parfois en lien avec la recherche sur la notion d’engagement, en tentant des mesures physiques des réactions émotionnelles. Deux principales approches : la première est physiologique par le biais de la paume de la main, du cœur, de la respiration, et plus généralement du cerveau ; la seconde est corporelle par l’attitude globale du corps, les expressions du visage, ou l’analyse sémantique du langage verbal.

Le marketing s’est emparé depuis longtemps des émotions considérant qu’elles sont une variable fondamentale pour comprendre, sinon expliquer, les décisions des consommateurs. Une difficulté majeure réside dans leur mesure, qui peut être contournée par les progrès récents dus aux mesures « appareillées », comme l’est l’eye tracking pour l’attention.

En 1989 apparaissent les quatre dimensions de la mesure d’une réaction affective : intensité, direction, contenu, degré de conscience du répondant. Une telle mesure doit être neutre par rapport aux biais que sont la désirabilité sociale, la capacité limitée de rétrospection et d’introspection. Une émotion est un phénomène complexe, et aucune mesure prise isolée n’est capable de traduire sa complexité. La mesure « idéale » de toute émotion se doit d’être spontanée, objective, déguisée et métrique (Derbaix & Poncin [10]).

Les modes de mesure de l’émotion ont été catégorisés par Derbaix et alii ([8], [9], [10]) : la mesure auto-rapportée subjective, proche du déclaratif des études classiques, la mesure psychobiologique basée sur des caractéristiques physiques comme l’activité cardiaque, la pression artérielle, l’activité électrodermale, un électro-encéphalogramme, et la mesure fondée sur l’observation d’un comportement moteur (expressions faciales, mouvements corporels).

Actuellement, les mesures les plus utilisées sont auto-rapportées, par questionnaire. On retrouve les points forts et faibles des méthodes déclaratives : opérationnalité, facilité de mise en œuvre, coût, sensibilité aux trois biais mentionnés précédemment. Les mesures psychobiologiques et de comportements moteurs, à l’inverse, ne réclament pas d’introspection ou de rétrospection, et semblent peu touchées par la désirabilité sociale. Leur défaut principal est que ces mesures nécessitent des appareils, ce qui va de pair avec complexité d’administration et prix, a fortiori pour une approche générale autre qu’en laboratoire.

Des avancées récentes en mesure psychobiologique, rapprochant marketing et neurosciences, mettent en évidence l’activité électrodermale et l’électromyographie faciale, en approche complémentaire (Lajante [19], Droulers, Lajante & Lacoste-Badie, [11]), et particulièrement les progrès en portabilité des appareils, c’est-à-dire en opérationnalité.

L’identification des émotions par reconnaissance faciale existe depuis longtemps mais le coût matériel diminue considérablement : ordinateurs, tablettes, smarphones, caméras haute définition, logiciels de reconnaissance faciale, lunettes eye tracking, et un point fort : la dimension non intrusive. La mesure des expressions faciales est cependant sujette à caution en raison de la prédominance des émotions primaires et l’absence du langage du corps.

Au-delà de tout ceci, mesurer un concept non défini est difficile. Le travail des psychologues sur l’émotion elle-même est encore à achever, sans oublier le contexte personnel, bien réel car deux personnes placées dans la même situation n’ont pas les mêmes réactions déterministes. Les recherches en cours laissent présager, à un terme difficile à prévoir, des conclusions néanmoins positives. La question se posera alors de leur déploiement, à coût admissible, auprès d’échantillons de grande taille, ou du recueil de données massives en utilisant des objets connectés.


Bibliographie

[1] Aristote, Oeuvres, La Pléïade, 2014

[2] Axelrod J., Induced moods and attitudes towards products, Journal of Advertising Research, 1963, n°3

[3] Boullier D., L’attention : un bien rare en quête de mesure, Sciences de la société, Presses Universitaires du Mirail, 2013

[4] Citton Y., Poirson M., Le Quéau P. (Org.), Colloque L’économie de l’attention au carrefour des disciplines , Grenoble, octobre 2013

[5] Citton Y., Pour une écologie de l’attention, Éditions du Seuil , Paris, 2014

[6] Citton Y., L’écologie de l’attention, culturemobile.net, 26 mai 2015

[7] Davenport T., Beck J., The Attention Economy, Harvard Business Publishing, Boston, 2001

[8] Derbaix, C., Filser, M.. L’affectif dans les comportements d’achat et de consommation, Economica, Paris, 2011

[9] Derbaix, C., Pham, M. T., Pour un développement des mesures de l’affectif en marketing : synthèse des prérequis, Recherche et Applications en Marketing, n°4, 1989

[10] Derbaix, C., Poncin, I., La mesure des réactions affectives en marketing: évaluation des principaux outils, Recherche et Applications en Marketing, n°2, 2005

[11] Droulers O., Lajante M., Lacoste-Badie S., Apport de la démarche neuroscientifique à la mesure des émotions, Décisions Marketing, oct.-déc. 2013

[12] Droulers O., Roullet B., Contexte de programme violent à la télévision et mémorisation des publicités, Recherche et Applications en Marketing, Janvier 2014

[13] Franck G., Ökonomie der Aufmerksamkeit, Merkur, n°534, 1993 ; traduction anglaise The Economy of Attention, Telepolis, déc. 1999

[14] Giannelloni J.-L., Le Nagard E., La mesure des émotions par la complémentarité des outils : perspectives nouvelles, Décisions Marketing, n°79, juillet-septembre 2015

[15] Giannelloni J.-L., La mesure de l’émotion par la complémentarité des outils, Séminaire Médias  IREP, Paris, décembre 2015

[16] Goldhaber M. H., The Attention Economy and the Net, First Monday, Vol. 2, n°4, 7 avril 1997

[17] Influencia (Revue), L’émotion : fiction ou vérité ?, n°20, janvier-février-mars 2017

[18] Lachaux J.-Ph., Le cerveau funambule, comprendre et apprivoiser son attention grâce aux neurosciences, Odile Jacob, Paris, 2015

[19] Lajante, M., Contribution des neurosciences à l’étude de l’émotion en persuasion publicitaire : concepts, méthodes et mesures, Thèse pour le doctorat en sciences de gestion, Univ. Rennes 1, 2013

[20] Nahon D., Tassi Ph., Le contexte d’insertion des messages et la mémorisation de la publicité télévisée, Décisions Marketing, n°13, janvier-avril 1998

[21] Postel, J.-Ph., L’affaire Arnolfini, Actes Sud, 2016

[22] Simon H., Designing Organizations for an Information-Rich World, in « Computers, Communication, and the Public Interest », Martin Greenberger, Baltimore, Johns Hopkins Press, 1971

[23] Tisseron S., L’empathie au cœur du jeu social, Albin Michel, Paris, 2010

[24] Tisseron S., Empathie et manipulation, Albin Michel, Paris, 2017

 

Philippe Tassi