La révolution numérique est la révolution des nombres : est numérique toute information qui a été traduite en nombres. D’abord avec des 0 et des 1, ensuite par des séries de calculs et des statistiques, et enfin par des algorithmes, suites d’opérations ou d’instructions permettant d’effectuer une tâche concrète, comme le tri ou la transmission de données. Dans le secteur des télécommunications, le codage de l’information, ou par exemple la conversion d’une voix humaine en signaux électriques, puis en une suite de nombres, a fortifié la croyance que tout message peut être codé et traité sous une forme numérique depuis 1948 avec les travaux de Claude Shannon.
Les émotions devraient donc – en théorie – pouvoir se transmettre tout aussi facilement par simple traduction numérique. Pourtant, il est assez courant d’opposer chaleur humaine et froideur logique des mathématiques, comme si la mise en équation du monde entraînait de facto une déperdition tant humaine qu’émotionnelle. Et pour cause, qu’y a-t-il a priori de moins poignant, voire de plus glaçant, qu’une déclaration d’amour noyée sous le poids des symboles algorithmiques et énoncée d’une voix robotiquement neutre ?
Si des films comme Her de Spike Jonze ou 2046 de Wong Kar-Waï aiment démentir cette idée, c’est précisément en faisant perdre à la machine cette neutralité et en lui donnant l’illusion de la compréhension d’autrui et de la compassion. Qu’en est-il réellement ? Si les émotions véhiculées par un texte, un son ou une image nés de mains ou de voix humaines parviennent à être en grande partie communiquées par leur double numérique, comment capter l’émotion ressentie derrière un écran ou réussir à créer une expérience d’émotions partagées entre l’homme et la machine ?
La compassion, une ressource rare et prisée
Au cœur des préoccupations des grands magnats du numérique depuis quelques années déjà, la recherche de cette compassion 2.0 ne cesse de progresser. Du rudimentaire bouton « J’aime »de Facebook au petit robot Pepper de la société française SoftBank Robotics capable de « reconnaître les principales émotions humaines et d’adapter son comportement en fonction de l’humeur de son interlocuteur », la captation et l’échange d’émotions semblent même être algorithmiquement résolus.
Et pourtant, parallèlement à cette sollicitation compassionnelle omniprésente dans le développement des nouvelles technologies et des médias, nous ne pouvons que constater avec Myriam Revault d’Allonnes la défaillance de cette sensibilité compassionnelle dans nos milieux professionnels, et plus globalement, dans notre vie quotidienne. L’apparente rationalisation de nos modes d’existence n’entre-t-elle pas en contradiction avec l’oisiveté et l’émotivité recherchées de nos avatars numériques ? Est-ce à dire que la compassion 2.0 nécessitant la médiation du numérique prendrait le pas de manière durable, voire définitive, sur la compassion existant traditionnellement entre deux inconnus de visu ?
Petit point d’histoire
Au XIXe siècle, la théorie de l’émotion de William James et Carl Lange bouleverse l’état de la recherche sur le sujet. L’émotion n’est plus perçue comme la simple conséquence des divers mouvements d’âme, mais comme l’expression d’une intelligence qui serait d’abord et avant tout corporelle. Les larmes coulent, et c’est seulement dans un second temps que le cerveau rationaliserait ce phénomène en se demandant si ce sont des larmes de joie ou de tristesse.
Dans cette optique, l’émotion renvoie à la somme de nos changements physiques de l’ordre de la spontanéité et du réflexe. Transpiration, relâchement musculaire, accélération cardiaque sont autant de réactions qui expriment ces émotions primaires.
À la fin du XXe siècle, neuroscientifiques et psychologues se sont emparés de ces résultats, déconstruisant encore un peu plus la dualité rassurante de l’âme et du corps. Chef de file de ces recherches, Antonio Damasio propose pour plus de clarté et de rigueur scientifique de distinguer émotion et sentiment. Si le premier se rapporte à l’ensemble de nos réactions neuronales, et donc physiques, le second en serait la transcription sur le terrain de l’esprit grâce à la production d’images mentales. De la théorie James-Lange, l’auteur ne garde pas tant la primauté réactionnelle du corps sur l’esprit, que la complexité de l’interaction entre émotion et sentiment, corps et esprit.
Dans le domaine du numérique, seul ce qui est visible compte
Tout système robotisé ne peut en effet recevoir des informations qu’après les avoir enregistrées à l’aide de capteurs, plus ou moins complexes. Le sentiment est donc totalement délaissé au profit de l’émotion détectable par une modification physiologique perceptible par différents capteurs. La compassion n’est donc plus la compréhension et le partage des sentiments d’autrui, mais la captation et l’analyse de ses émotions. C’est bien ce déplacement, établi par des scientifiques tels que Rosalind Picard, qui permet au petit robot Pepper de paraître « bienveillant, attachant et surprenant », ou encore « avenant et sympathique ».
Quand les capteurs ne sont pas assez performants pour identifier par eux-mêmes ces changements émotionnels, c’est l’individu qui est directement sollicité pour définir et donner de lui-même son état d’esprit, à l’instar de ce qui est proposé par Facebook. Smartphones et ordinateurs n’étant pas encore équipés de telles technologies, Facebook invite chaque utilisateur à exprimer ses émotions. Chaque publication accepte commentaires et réactions : à l’ancestral bouton « J’aime », se sont récemment ajoutés les émoticônes « J’adore », « Haha », « Wouah », « Triste » et leur homologue mécontent « Grr ».
Comme le montre Eli Pariser dans The Filter Bubble, ces derniers permettent aux algorithmes de Facebook de personnaliser l’expérience des utilisateurs en mettant en avant les contenus qu’ils ont les plus appréciés au détriment de ceux qui n’ont recueilli aucune réaction de leur part. Les publications rendues visibles sont donc celles qui sont évaluées être le plus à même à déclencher de nouveaux « J’aime » ou « J’adore », et ainsi le plus de clics.
Le « slacktivisme » : la compassion devenue virtuelle
Derrière cette course aux clics dominée par l’émotion, on retrouve l’économie de l’attention formulée par Herbert Simon :
Dans un monde riche en information, l’abondance d’information entraîne la pénurie d’une autre ressource : la rareté devient ce que consomme l’information. Ce que l’information consomme est assez évident : c’est l’attention des receveurs. Donc une abondance d’information crée une rareté de l’attention et le besoin de répartir efficacement cette attention parmi la surabondance des sources d’informations qui peuvent la consommer.
Face à cette sur-sollicitation informationnelle, l’émotion sert à contrôler et à fixer l’attention. En favorisant l’approche émotionnelle, Facebook parvient à capter cette attention qui devient du « temps de cerveau humain disponible », pour reprendre l’expression de Patrick Le Lay, alors président-directeur général du groupe TF1. N’oublions pas que les revenus de Facebook dépendent principalement des annonces publicitaires et qu’il est donc primordial pour le groupe de maintenir les utilisateurs actifs sur le réseau, d’où l’importance du contrôle de la distribution des publications, et donc de l’information.
Facebook crée (ou renforce) ce que Eli Pariser – toujours lui – appelle une « bulle de filtrage » : les publications les plus susceptibles d’être suivies et appréciées sont les seules visibles, ce qui confortent les utilisateurs dans une bulle de confort où seuls les contenus ayant un fort taux de probabilité de provoquer une émotion positive apparaissent. Les publications deviennent donc de plus en plus homogènes, ce qui faussent la compassion puisque les utilisateurs ne se retrouvent qu’en face d’opinions et de situations qu’ils connaissent, et auxquelles ils adhèrent probablement déjà. Toute rencontre potentiellement dérangeante est évincée.
Une fois pris dans cette bulle de confort, l’individu est dans une position passive de récepteur, où il n’a plus qu’à réagir émotionnellement, et non à agir. C’est ce qu’on appelle le « slacktivisme », ou l’activisme fainéant. Aimer une publication, partager un tweet, changer sa photo de profil avec une bannière prédéfinie par Facebook pour soutenir une cause sont tout autant d’exemples de ce militantisme 2.0 qui ne va au-delà d’un engagement virtuel que dans, au maximum, 10% des cas.
« Kony 2012 », un cas d’école
L’appel à mobilisation « Kony 2012 » de l’association Invisible Children, Inc. est à ce titre paradigmatique. Le but affiché de l’association est d’arrêter Joseph Kony, le chef des rebelles de l’Armée de résistance du Seigneur qui opèrent entre l’Ouganda et le Soudan du Sud. Son armée est exclusivement constituée des près de 100 000 enfants-soldats qu’il a kidnappés, violés, mutilés. Les Etats-Unis ne pouvant intervenir dans une guerre où aucun de leurs intérêts n’est menacé, Invisible Children, Inc. a décidé de rendre visible ces enfants dont personne ne connaissait l’existence, espérant ainsi créer une mobilisation populaire suffisamment importante pour contraindre le gouvernement à agir.
Si la vidéo, extrêmement efficace, a été très rapidement virale et visionnée près de 100 millions de fois, l’association n’a reçu que 3,5 millions de soutiens concrets « in real life ». Ce phénomène de buzz compassionnel qui ne dépasse finalement pas le stade du virtuel a notamment été dénoncé par la campagne publicitaire « Aimer n’est pas aider » de Publicis Singapour pour l’association Crisis Relief Singapore où l’on peut voir une série d’enfants mutilés entourés de « pouces en l’air », symbole du « J’aime » Facebook.
La compassion, dernier rempart d’humanité ?
Derrière ces « pouces en l’air » virtuels, qu’y a-t-il réellement ? Cette compassion 2.0 est-elle encore de la compassion ? L’œuvre de Philip K. Dick ne pose pas la question différemment. 1968, c’est la date de la première édition de son livre Les Androïdes rêvent-ils de moutons électriques ? Dix ans avant la fabrication des premiers ordinateurs de maison et un peu moins de quarante ans avant Facebook, mais un peu plus de dix ans, tout de même, après les premiers tests de Turing permettant de reconnaître, jusqu’à nouvel ordre, toute intelligence artificielle d’une intelligence humaine.
L’intrigue met en avant Rick Deckard, double inversé de René Descartes, chasseur d’androïdes. Ce dernier doit donc repérer les androïdes et les « retirer », c’est-à-dire les détruire. Mais la tâche est ardue. Contrairement à la philosophie cartésienne, les machines sont pourvues de parole et d’esprit, c’est l’émotion qui leur fait défaut. Des tests d’ « empathie » sont ainsi mis en place pour les détecter parmi les hommes. Pour Philip K. Dick, l’empathie est la capacité qu’ont les êtres humains à partager les émotions et sentiments d’autrui : soit, l’exact équivalent de ce que nous avons appelé précédemment « compassion ».
L’homme serait le seul capable d’éprouver cet échange émotionnel, échange qu’il a besoin de ressentir pour continuer de vivre dans ce monde froid où les androïdes dominent le monde intellectuel, dont les médias. Le Mercerisme, lointain écho du Mesmérisme, est une sorte de religion fallacieuse, mais nécessaire, qui consiste à connecter les individus aux émotions d’autrui par la « boîte à empathie ».
Facebook, une « boîte à empathie » ?
Avec un peu de recul, cette « boîte à empathie » ressemble étrangement à l’univers virtuel créé par les bulles de filtrage d’un Facebook par exemple. Chaque utilisateur a accès aux émotions/réactions des autres, rendues visibles à tous par la matérialisation des émoticônes prédéfinies. Ce rapprochement mis à part, toute la tension narrative déployée par K. Dick est autour du statut de la « bonne empathie ».
Au fur et à mesure des pages, on s’aperçoit que les hommes ne réagissent pas tous de la même manière aux tests d’empathie et qu’il est finalement pratiquement impossible de détecter un androïde d’un individu « schizoïde », pour reprendre le terme du psychiatre Carl Jung, qui aurait une compréhension plus intellectuelle et rationnelle qu’émotive du monde qui l’entoure.
Ce n’est donc pas la machine qui parvient à cette chaleur humaine, mais l’homme qui perd en humanité à force d’être au contact de la machine et de rationaliser sans cesse son comportement. La compassion 2.0 serait dès lors une compassion froide et analytique, à contre-courant du principe d’empathie que l’homme peut éprouver, même à l’égard des androïdes et des autres machines. Ne laissons donc pas notre bonne conscience se faire duper par la compassion virtuelle, qui ne remplace en rien l’empathie et la chaleur humaine.
Yaël Benayoun, chercheure en philosophie, adepte de l’anti-conformisme et étoile montante du monde numérique qui p(a)nse ce qu’il fait, de préférence avant de le faire.
La compassion avec un autre nécessite, en amont, une capacité d’identification à cet autre qui souffre. Plus précisément, une capacité à reconnaître chez cet autre la vulnérabilité consubstantielle de l’humanité que nous avons en partage avec lui, qui est l’aspérité de laquelle se saisit ce qui fait souffrir. C’est ce qui explique que les plus généreux sont aussi ceux qui ont le moins, cf. par ex. https://science.slashdot.org/story/16/10/27/0048212/rich-people-pay-less-attention-to-other-people-says-study
Une technologie vise à répondre à une vulnérabilité. Opérante, elle prive de l’expérience de vulnérabilité. Le solutionnisme est son objectif premier. Elle limite par conséquent l’identification, et donc la possibilité d’empathie qu’au mieux, elle confine au simulacre automatisé alors que l’humain souffrant et vulnérable a avant tout besoin d’être reconnu comme sujet, et non réduit à une vulnérabilité qui déclenche une cascade de conséquence aspécifique. C’est une partie (essentielle!) du propos de la chaire de philo à l’hopital fondée par Cynthia Fleury, cf. http://hotel-dieu.chaire-philo.fr/.
L’exemple de la réalité virtuelle, comme aboutissement de la perception artificielle, est flagrant: chacun y projette les fantasmes de ses souhaitables, mais se verrait beaucoup moins faire, à travers elle, l’expérience de ce qu’il abhorre. Au premier rang duquel sa vulnérabilité. La réalité virtuelle vise à camoufler le réel, non seulement à l’extérieur de nous-mêmes, mais également le réel que nous avons en partage en dedans de nous, c’est à dire la vulnérabilité consubstantielle de notre humanité. En lien, qui mériterait également d’être développé: http://www.internetactu.net/a-lire-ailleurs/de-la-realite-virtuelle-et-de-lempathie/
C’est évidemment un peu lapidaire et trop professoral formulé comme ça. Le sujet du croisement entre éthique et technologie est vaste, c’est pourquoi je crois que mon grain de sel n’est pas de trop, bien qu’il serait nécessaire d’y apporter beaucoup de nuances qui, je crois, tiendraient mal dans un commentaire. 🙂
Aurel.
PS: bien mieux ici qu’en 140 caractères, enfin je crois, tu me diras. Ça fera une discussion de plus quand on se croisera. 🙂
[…] Compassion 2.0 : quand l’empathie devient virtuelle […]
Stylé cette analyse de l’empathie facebook et du lien émotion-réaction ! Ca me fait penser à cet article d’actualité où « le réseau social se vante d’être capable de repérer les sentiments des adolescents, et ce dès 14 ans. » : « Quand Facebook analyse les sentiments des adolescents à des fins publicitaires » https://goo.gl/pn0Goy
Bravo à l’auteur de l’article en tout cas !!