Comment lutter contre les discours de haine tout en défendant la liberté d’expression ?

Comment lutter contre les Fake news et les discours de haine, tout en défendant la liberté d’expression ? C’est la question que pose Romain Badouard dans son dernier livre Les nouvelles lois du web, modération et censure (Seuil, 2020). Le maître de conférences et chercheur en sciences de l’information et de la communication à l’université Paris-II Panthéon-Assas fait le point sur les problèmes que pose la modération de la parole en ligne, et les moyens à mettre en place pour la rendre plus démocratique.

« Les géants du web seraient-ils devenus des ennemis de la liberté d’expression » ? Est-il acceptable que des sites de gauche voient leur audience diminuer drastiquement sur Facebook, sans explication ? Les pratiques de censure dépassent désormais le strict cadre des Etats. Les plateformes numériques – des espaces privés – peuvent désormais s’y adonner, plus ou moins volontairement d’ailleurs. Sur ces plateformes, circulent aujourd’hui nombre de discours haineux qui à leur manière, participent indirectement au renforcement de cette même censure : « Sur le champ de bataille du débat en ligne, la violence expressive et l’intimidation par la haine constituent des ressources stratégiques efficaces pour faire taire son contradicteur ». Comment réguler ces abus ?

Liberté(s) d’expression

La difficulté à réguler la parole en ligne n’est pas nouvelle. Dans les années 1990 déjà, alors que l’internet grand public fleurissait, plusieurs scandales ont révélé le grand défi que les réseaux allaient poser à la justice. Ainsi en 1996, la sortie du livre Le grand secret, où l’ancien médecin de François Mitterrand révélait le cancer de celui-ci, fut retiré des étalages, mais fuita rapidement sur internet sous forme de copie scannée…

Romain Badouard rappelle par ailleurs que les pratiques en termes de régulation des contenus problématiques sont fortement corrélées à la conception que l’on a de la liberté d’expression. L’histoire européenne, marquée par la Shoah, juge possible d’interdire certains contenus, et régule la parole publique « au nom de la liberté d’expression ». Cela contribue à expliquer pourquoi les récents gouvernements allemands et français ont défendu des lois telles que la NetzDG (Allemagne), ou la loi Avia en France (censurée par le Conseil Constitutionnel). Cette dernière ouvrait notamment la possibilité de modérer un contenu sous 24 heures, avec le risque de supprimer à la hâte des contenus légitimes.

Aux Etats-Unis, où prévaut une vision plus libérale de la liberté d’expression, on défend que la censure n’est pas efficace et que le meilleur moyen de lutter contre des contenus haineux ou trompeurs reste l’argumentation (exception faite des questions de mœurs, du rapport à la nudité, ou encore l’IVG, qui font tout de même l’objet de différentes formes de censure). Cette vision nécessite cependant de prêter une attention particulière aux conditions qui permettent à différents publics de s’exprimer en ligne (et à la bonne distribution du temps de parole). Or c’est sur ce socle idéologique que se sont construits les réseaux, puis les réseaux sociaux : « L’architecture décentralisée d’internet, ou le fonctionnement de ses protocoles techniques, qui garantissent la séparation des fonctions de transport et de traitement de l’information, avaient pour mission de rendre opérationnels les principes du libéralisme informationnel, selon lequel la liberté de circulation des informations ne doit souffrir d’aucun obstacle, quel qu’il soit ».

Quoi qu’il en soit, l’exposition aux contenus haineux étant réelle, la question de leur modération se pose. Et quand bien même les approches varient d’un pays à l’autre « aujourd’hui en Europe, la question est moins de savoir s’il faut ou non réguler les contenus en ligne que d’identifier l’acteur qui est légitime pour le faire ».

Qui doit réguler la parole en ligne ?

De nombreux moyens sont déjà mis en place pour modérer la prise de parole en ligne, et aucun n’est vraiment convaincant. Il y a bien sûr, les armées de « travailleurs du clic » chargés de trier ce qui est acceptable ou non, notamment dans les contenus signalés par les utilisateurs eux-mêmes. Ces travailleurs, rappelle Romain Badouard, « doivent traiter environ 2000 images par heure, soit livrer une appréciation sur un contenu en moins de deux secondes ». Exposés plusieurs heures par jours à des images et vidéos de sévices physiques, ils subissent des dégâts psychologiques importants. Or la modération est un acte éminemment complexe « qui coïncide mal avec les conditions de travail de celles et ceux qui l’exécutent ».

Les controverses autour des conditions de travail des modérateurs incitent les plateformes à automatiser une partie de la modération. Ceci est problématique à plusieurs égards. Tout comme la modération manuelle, la modération automatique n’est pas en mesure de comprendre le contexte dans lequel un mot est prononcé. S’agit-il d’humour ou d’ironie ? Connaît-on le contexte particulier dans lequel tel ou tel propos a été tenu? Les erreurs d’interprétation sont d’autant plus importantes que les systèmes automatiques s’améliorant, ils pourraient être utiles pour détecter des « patterns » conduisant à des comportements haineux. Selon une étude « Antisocial behavior in online », il est ainsi possible de prédire avec une précision de 73% les discours haineux. Un score qui reste bien sûr extrêmement faible, et laisse la porte ouverte à un nombre important de faux positifs. Les réponses des algorithmes sont souvent binaire (accepter ou refuser une vidéo), alors que les conditions de diffusion peuvent varier. Par exemple, un contenu sous droits d’auteur peut être légalement utilisé comme extrait dans un but pédagogique, mais les systèmes de modération ne sont pas toujours capables d’en tenir compte.

Enfin, la diffusion des contenus problématiques n’est pas qu’affaire de modération. Structurellement, les réseaux sociaux donnent plus d’importance aux contenus qui génèrent de l’audience, modèle publicitaire oblige. S’il faut concéder à Facebook que la prise en compte des signalements s’est améliorée (de 28% à 82% depuis 2016), la façon qu’a le réseau de dégrader la visibilité de certains contenus (plutôt que de les supprimer) pose question car « chaque jour, de nombreux contenus légitimes sont retirés ou invisibilisés par erreur ». En 2019, Facebook créait une « cour suprême des contenus » (Facebook oversight board) chargée de trancher sur la politique de modération de l’entreprise. Une décision qui illustre la volonté de Facebook d’organiser une forme de contrôle plus indépendant, mais qui interroge directement le rôle et la souveraineté des Etats.

Certains réseaux sociaux ont poussé la logique plus loin, en inhibant certaines fonctionnalités au effets potentiellement néfastes. En 2019, Instagram supprimait progressivement le nombre de Likes sous les photos, alors que sur WhatsApp, le nombre de transferts de messages de groupes a aussi été techniquement limité (mais sans doute pas suffisamment pour empêcher la diffusion de fake news). De même Twitter vient de lancer une fonctionnalité demandant aux utilisateurs de lire les articles avant de les retweeter.

Dans cette même veine, le sociologue Dominique Boullier propose de « lutter contre le réchauffement médiatique » en jouant sur le design des services, de façon à « ralentir les flux d’information et de stimuler la réflexivité des usagers sur leurs propres pratiques » (voir Comment sortir de l’emprise des réseaux sociaux, Paris, Le Passeur éditeur).

Pressions dans la société civile

La régulation « collective » est une piste qu’étudie Romain Badouard. Celle-ci se présente de plusieurs façons. Elle peut consister tout d’abord à confier la modération aux utilisateurs eux-mêmes, comme c’est le cas sur le réseau Mastodon, ou encore sur Wikipedia. Ces pratiques sont certes, difficilement applicables à YouTube ou Facebook, cependant, elles peuvent être déclinées autrement. En 2018, Facebook a bien soumis ses conditions d’utilisation à une consultation des utilisateurs, mais celle-ci n’a pas suscité une adhésion importante. Seuls 0,3% d’entre eux se sont finalement prononcés… le résultat est plutôt loin du « processus démocratique à large échelle » promis par Mark Zuckerberg. Facebook étudie également la possibilité d’améliorer le « fact checking », non plus seulement en collaborant avec des journalistes, mais aussi en faisant intervenir les internautes dans le processus.

Une autre stratégie, dite du « contre-discours », consiste à sponsoriser des internautes qui souhaiteraient répondre aimablement aux fausses nouvelles en ligne. Il ne s’agit pas d’interdire ou modérer ces contenus, mais bien de leur opposer des arguments en occupant l’espace du débat. Un mouvement comme #jesuislà, décliné du groupe suédois #jagärhär a justement pour mission de lutter contre les discours racistes ou homophobes en ligne. Dans la même veine, l’Institute for Strategic Dialogue (ISD), ou encore le think tank Renaissance Numérique (avec la plateforme Seriously), tentent d’endiguer les dynamiques haineuses sur internet.

La négociation sur le fonctionnement de la plateforme est aussi le fruit de luttes, de mobilisations dans la société civile. Ainsi, le mouvement #Freethenipple (libérez le téton) est né en 2013, alors que Facebook avait supprimé une vidéo de la réalisatrice Lina Esco, qui s’était mise en scène courant seins nus dans la rue, afin d’interroger la différence de traitement de la nudité entre hommes et femmes. La pudeur excessive des réseaux sociaux reste un point dur de la négociation que cristallisent les confrontations entre les utilisateurs et les plateformes. Comme le rappelle Badouard, les changements dans les règles d’utilisation, et notamment les gains en terme de transparence, ont toujours été des conquêtes suite à des travaux scientifiques, des enquêtes journalistiques ou des mouvements citoyens : « la transparence et la responsabilité ne sont jamais venues spontanément des plateformes elles-mêmes ». On sait par exemple que Facebook a mis en place un « indicateur de tendance sur la violence et l’incitation à la violence en fonction des mots-clés utilisés » (qui a notamment été utilisé pour fermer le groupe « Stop the Steal » (créé pour délégitimé le processus électoral pendant la présidentielle 2020 aux Etats-Unis, et qui a rassemblé 300 000 personnes en deux jours). On ne sait rien revanche, de son mode de fonctionnement…

Quoiqu’il en soit, on retiendra du livre de Romain Badouard que les formes de régulation parfaites n’existent pas encore. L’ouvrage est à ce propos tout en nuance. Magnanime, le chercheur écrit à propos des plateformes que « si elles ne font rien elles sont accusées de laxisme ; quand elles agissent, leur interventionnisme est perçu comme une forme d’autoritarisme ; quand elles délèguent, on les soupçonne de tentatives de récupération. »  Dans sa partie finale, il dresse un certain nombre de pistes, pragmatiques, voire même opérationnelles, pour reprendre une forme de contrôle, sans s’illusionner sur son efficacité – celle-ci étant partie liée au modèle économique des plateformes. On retiendra la proposition de travailler sur un droit d’appel permettant aux personnes censurées de demander des comptes, ou encore la création d’une agence publique pour contrôler l’action des plateformes en matière de régulation des contenus.

Clair, concis, efficace, l’ouvrage de Romain Badouard est à mettre entre les mains de tous ceux qui s’interrogent sur les questions relatives à la liberté d’expression sur internet.

Irénée Régnauld (@maisouvaleweb), pour lire mon livre c’est par là, et pour me soutenir, par ici.