Susciter chez les utilisateurs des réseaux sociaux de la peur ou de l’empathie est aujourd’hui présenté comme le meilleur moyen de les manipuler : l’affaire Cambridge Analytica et le rôle supposé de Facebook dans l’élection de Donald Trump en seraient la preuve. Pourtant, Camille Alloing, chercheur en science de l’information-communication (UQAM), invite à grandement relativiser le pouvoir des réseaux sociaux sur nos émotions.
Pouvez-vous expliquer ce qu’est le « capitalisme affectif » ?
Il s’agit tout simplement de la partie du capitalisme qui exploite notre capacité à nous émouvoir (et à émouvoir les autres) dans le but de générer de la valeur. C’est particulièrement prégnant sur les réseaux sociaux.
Il faut cependant s’entendre sur le terme « affect », qui peut désigner l’ensemble des émotions, mais qui est avant tout un concept critique pour questionner ce qui nous « met en mouvement », nous amène à réaliser des actions concrètes. Quand j’apprécie un contenu et que je le « like », je suis affecté. Contrairement aux émotions – qui restent difficilement analysables tant elles sont subjectives et inconscientes –, les conséquences des affects peuvent être identifiées (on peut constater que j’ai pressé le bouton « like » après avoir vu une vidéo qui m’a affecté). On ne peut donc pas savoir si les plateformes numériques réussissent réellement à susciter des émotions chez leurs utilisateurs, mais on peut analyser la façon dont elles parviennent à les affecter.
Comme la majeure partie du chiffre d’affaires des réseaux sociaux provient de la vente d’espaces publicitaires, leur objectif est d’accroître le temps passé par leurs utilisateurs sur la plateforme… et donc le nombre de publicités visionnées. Pour cela, les affects sont un atout indéniable : ils permettent, en générant de l’empathie, de provoquer davantage de réactions, et d’accroître la diffusion des contenus.
Mon constat est ainsi que les individus sont aujourd’hui enchâssés dans des structures qui ont le pouvoir de les affecter – et donc de leur faire ressentir des émotions et de les faire agir – qu’ils ne peuvent cependant pas affecter en retour. Si je publie du contenu, et que j’attends une réponse de mes amis, je suis aliéné parce que cette réponse ne viendra que si Facebook choisit (pour des raisons qui m’échappent) de diffuser mon post.
Vous dites que « l’affect est un pouvoir »… le pouvoir de manipuler les individus grâce à leurs émotions ?
Si je disais qu’affecter une personne permettait effectivement de la manipuler, j’irais dans le sens du discours des plateformes. Facebook a par exemple tout intérêt à laisser penser que ses algorithmes sont capables de contrôler ses utilisateurs, afin de vendre de l’espace publicitaire. L’affaire Cambridge Analytica [scandale de manipulation d’utilisateurs de Facebook afin d’influencer l’élection présidentielle américaine de novembre 2016 en faveur de Donald Trump] a en ce sens été pour eux une publicité incroyable auprès des annonceurs, qui y ont vu l’occasion d’accroître drastiquement leurs ventes en manipulant les internautes !
Il faut cependant nettement relativiser la part des réseaux sociaux dans l’élection de Trump, et se méfier des explications simplistes. Alors que Facebook se targuait d’atteindre 89 % de précision dans son ciblage publicitaire, des employés ont révélé en 2019 que la précision moyenne aux États-Unis était en réalité deux fois inférieure (41 %, avec des chutes à 9 % selon les catégories)1. Certes, leurs algorithmes et les fonctionnalités de ces plateformes ont des effets concrets… mais ils sont bien inférieurs à ce que l’on imagine.
La recherche est faite pour amener de la pondération dans les débats, et les travaux scientifiques23 montrent bien que contrairement à tout ce que l’on peut entendre, les plateformes ne peuvent pas réellement nous manipuler. Certes, elles essaient de le faire, mais elles ne maîtrisent ni les tenants, ni les aboutissants des actions qu’elles mettent en place. Cela peut d’ailleurs vite devenir dangereux, et ce d’autant plus que leur conception de la psychologie humaine est caricaturale : croire que les gens sont aveuglément soumis à leurs émotions et leurs biais cognitifs est une forme de mépris de classe.
En 2014, Facebook avait ainsi embauché des chercheurs pour réaliser des tests psychologiques visant à manipuler les émotions de 700 000 utilisateurs sans leur consentement4. Cette enquête « scientifique » devait démontrer la capacité de la plateforme à contrôler les humeurs de ses utilisateurs, et consistait à modifier les fils d’actualité des individus pour les exposer à des contenus plus négatifs (ou positifs). Résultat : ils se targuaient de pouvoir provoquer des « contagions émotionnelles », puisque les personnes se mettaient à leur tour à publier un contenu plus négatif (ou positif, selon ce à quoi elles avaient été exposées). Cependant, et en plus des évidents problèmes éthiques, l’expérience était statistiquement incorrecte, et ses conclusions ne tenaient pas… Mais il y a fort à parier que la rigueur scientifique n’était pas leur but premier ! L’objectif était surtout de se faire de la publicité auprès des annonceurs : Facebook utilise la recherche comme un instrument de relations publiques.
Il faut néanmoins bien rappeler qu’affecter quelqu’un n’est pas forcément négatif : tout dépend de nos intentions. Nous nous affectons mutuellement en permanence, et quand nous allons mal, nous avons besoin d’être affecté de façon positive. Il faut simplement bien réfléchir à qui nous laissons la possibilité de nous affecter : faut-il que des entreprises privées aient ce pouvoir ? Faut-il même que l’État l’ait ?
La détection biométrique des émotions est-elle à craindre ?
Oui. On assiste aujourd’hui à une banalisation des outils biométriques de mesure des émotions. Nous citons dans notre livre5 l’exemple d’un théâtre barcelonais, le Teatreneu, où le prix de votre ticket est calculé selon votre nombre de rires (30 centimes par éclat de rire). Cet exemple est assez anecdotique, mais ce qui est moins amusant, c’est que ces technologies biométriques – qui n’étaient jusqu’ici que de simples expérimentations à visée commerciale – servent aujourd’hui à surveiller les citoyens. La police new-yorkaise (NYPD) a ainsi dépensé plus de 3 millions de dollars depuis 2016 pour mettre au point des algorithmes destinés à mesurer (grâce à des envois de publicités ciblées) les sentiments de 250 000 habitants de la ville à l’égard des policiers6.
Le problème est aussi que ces technologies de détection biométrique des émotions sont très mauvaises. Elles sont basées sur les travaux du psychologue américain Paul Ekman et de son « Facial action coding system » [une méthode d’analyse des expressions faciales visant à associer certains mouvements du visage à des émotions], qui ne sont pas opérants en pratique.
Malgré leur ineffectivité, ces outils biométriques se diffusent à grande vitesse… Or une technologie est bien plus dangereuse quand elle fonctionne mal que quand elle ne fonctionne pas du tout ! Si elle est fiable à 80 %, et que l’on se retrouve parmi les 20 % de marge d’erreur, il nous reviendra de le prouver. Je trouve très inquiétant qu’aujourd’hui, des outils qui marchent mal deviennent des outils de gouvernance et de surveillance implémentés sans le consentement des principaux intéressés.