Dans un article sur The Reboot, Dennis Tenen, professeur associé en littérature comparée à l’Université de Colombia, s’interroge sur la possibilité de modérer correctement une conversation en ligne dans un espace à la fois global et centralisé comme Facebook. Pour Tenen, l’acte de modération dépend d’abord de la communauté qui l’exerce et des fins qu’elle poursuit, et de ce point de vue, il peut difficilement répondre à des règles universelles.
A l’heure des réseaux sociaux, la liberté d’expression est, plus que jamais, une condition première du débat démocratique. Et, plus que jamais, elle est un défi posée à nos façons de communiquer en ligne. On sait aussi que la liberté d’expression varie d’une région à l’autre, suivant les traditions culturelles et intellectuelles. Selon la conception que l’on se fait de la liberté, on régulera différemment la parole en ligne (avec plus d’interdits en France, moins aux Etats-Unis, où une conception plus libérale de la liberté d’expression prévaut – si l’on exclut les questions relatives aux mœurs). Or certains, avance Dennis Tenen, défendent l’idée que la liberté d’expression ne suffit pas. Il faudrait assurer, en plus, que la discussion publique réponde à un idéal supérieur : qu’elle soit juste, constructive, équitable. La variété des acteurs qui prennent la parole sur internet (partis politiques, bots, médias en quête de « clickbait », et tout un chacun), ne rend pas cette tâche aisée. Que faire ?
Pour répondre à cette question, l’auteur rappelle une précision d’importance. La conception libérale de la liberté d’expression, telle que défendue par le premier amendement, stipule que le Congrès ne peut en aucun cas « limiter la liberté d’expression, de la presse ou le droit des citoyens de se réunir pacifiquement ». La liberté d’expression est un droit positif, le droit de dire à peu près ce que l’on veut sans craindre un rattrapage de l’Etat. Cependant, rappelle Tenen, il ne s’agit pas exactement de pouvoir dire ce qu’on veut, et où on veut. Par exemple, je ne peux pas débarquer dans une pizzeria et m’attendre à ce que le patron m’autorise à déblatérer un cours sur la linguistique computationnelle. Dans ce cas précis, le fait d’interdire un discours ne revient pas à interdire ma liberté d’expression, mais à préserver la leur.
Concernant les réseaux sociaux, il est aujourd’hui clair que la demande politique va dans le sens d’un meilleur contrôle de ce qui se dit en ligne, mais la nature de ce contrôle, et ses responsables, sont encore peu clairs. Ce sur quoi tout le monde semble s’accorder, c’est que les contenus haineux et les fausses informations produisent des effets concrets dans nos sociétés. Les régulateurs ont dans leur ligne de mire les réseaux sociaux, et ceux-ci sont coup à coup accusés d’être trop laxistes (à laisser prospérer des communautés violentes, racistes, etc.), ou trop durs (quand leur régulation se confond avec de la censure, allant jusqu’à taire des sites de la gauche radicale). Rien de surprenant pour Tenen : « par définition, une entreprise n’agit pas pour le bien public, parce qu’elle rend compte non pas au public, mais à ses actionnaires. Parfois, les deux s’alignent, quand par la magie d’une hypothétique main invisible, les intérêts du marché et du public coïncident. Mais nul besoin d’être marxiste pour comprendre que le capital n’a rien d’intrinsèquement éthique. »
Le point du professeur de littérature est cependant un peu plus subtil. Pour lui, quoi qu’on pense des modes de régulation de la parole en ligne sur les plateformes, il faut avant tout convenir d’une chose : les plateformes sont constituées par tout un tas de communautés dont les valeurs diffèrent. Internet, que l’on confond souvent avec les quelques sites les plus visités (Facebook, YouTube, Twitter, Pornhub, etc.) n’est pas un espace homogène. Chacun de ces services est composé d’une multitude de communautés dont les pratiques varient, Tenen écrit : « une conversation « saine » diffère d’une communauté à l’autre. Les pratiques de la communauté académique sur Twitter ne sont peut-être pas appropriées chez des Twittos travailleur.ses du sexe ». Or pour Tenen, les débats sur la modération en ligne laissent entendre qu’il existerait une sorte de standard qui vaudrait pour tous, et sur lequel nous devrions tomber d’accord. Le but d’une société pluraliste, insiste-t-il, est d’assurer la coexistence et peut-être même la célébration des différences. Un gouvernement, ou une entreprise, ne saurait gouverner la vie sociale de nombreuses communautés dont les modalités d’expression s’inscrivent dans des contextes culturels et historiques différents [j’ajouterais cependant que les gouvernements sont censés faire appliquer des lois décidées collectivement, contrairement aux plateformes].
Par ailleurs, dans les communautés qui prospèrent, rappelle le professeur, les règles émanent de l’intérieur. Une « bonne » modération est construite par des modérateurs qui « jouent leur peau », dans le sens où ils s’investissent personnellement dans la communauté qu’ils modèrent. Au cours de ses recherches, Dennis Tenen a été amené à étudier plusieurs types de communautés, comme celles qui veillent à l’ouverture de l’accès aux publications scientifiques (Sci-Hub), aux ingénieurs informaticiens de Stack Overflow (sorte de forum dédié aux questions informatiques). Il relate également une anecdote : un conseil municipal à Détroit, où les voix marginalisées sont particulièrement bien entendues et écoutées, et où malgré les désaccords, la parole est correctement distribuée. Et de demander : « confierait-on la régulation d’un conseil municipal à des modérateurs sous-payés, ou à des algorithmes ? » De façon générale, ajoute-t-il : « celles et ceux qui ne sont pas vraiment présents, ou qui ne partagent pas les tâches de la communauté ne devraient pas pouvoir être mis dans la position d’y imposer leurs standards ».
C’est un fait, les communautés en ligne qui prospèrent sont pluralistes « by design ». Les communautés Reddit par exemple, regroupent des forums aussi différents que AskHistorians (forum d’histoire), r/lgbt (700k utilisateurs) ou r/gaming (30 millions d’utilisateurs) ou r/BlackPeopleTwitter (5M d’utilisateurs). Ces différentes communautés n’ont pas grand-chose en commun, et parfois s’opposent. Le sous-forum Askhistorians fournit des réponses d’un niveau académique, et demande à ses utilisateurs de respecter certaines règles, interdit les insultes, la négation de la Shoah, ou de monter en épingle les fautes de grammaire. Toutes les questions posées dans le forum doivent concerner un événement ayant eu lieu il y a plus de vingt ans, et toute réponse doit respecter un minimum de codes propres aux recherches historiques. Dans d’autres communautés ouvertes aux hommes, comme The Red Pill (un forum masculiniste d’extrême droite), il est interdit de faire la morale, de troller, ou de se faire passer pour une femme… Les deux groupes vivent donc sur des planètes différentes. Ajoutons le sous-forum subreddit r/France qui, comme l’avait pointé L’ADN, est étrangement paisible malgré ces 250K utilisateurs. Si le forum parvient encore à éviter les contenus haineux, c’est parce que les modérateurs sont impliqués, leur fonction est valorisée, et l’agressivité proscrite. Un système de votes permet de faire monter les contenus pertinents, et de rendre invisibles les fake news (rappelons que sur Twitter, la fonction « Like » ou le sur-retweet a souvent pour effet de produire une sur-visibilisation des contenus qui parce qu’ils sont critiqués, deviennent populaires). Cette bonne gestion du sous-forum France sur Reddit ne retire rien au fait que certaines communautés de la plateforme sont tout à fait toxiques, dépassent les cadres légaux, et sont régulièrement supprimées pour lutter contre les discours de haine.
Sur Stack Overflow, la régulation des communautés suit des principes analogues. Qu’il s’agisse de mathématique, ou d’anglais, il existe un système de privilèges qui augmente avec la participation. A partir de 10 000 réponses, on peut par exemple éditer une question, ou une réponse. Une petite sélection de super-modérateurs démocratiquement élus supervisent la modération sur plusieurs sites et discutent de l’évolution des pratiques en ligne : Stack Overflow est conçu pour favoriser une modération plurielle et nombreuse. Les plateformes modérées en commun mettent à disposition les interfaces permettant à une variété de standards d’émerger organiquement, d’élire des modérateurs et de leur fournir les moyens techniques d’améliorer leur forum. A revers, les plateformes centralisées telles que Facebook, YouTube, et Twitter imposent à tous un régime universel qui n’est ni transparent, ni démocratique : « si nous voulons un internet juste, sûr et juste, nous devons arrêter de nous le représenter à travers une vision singulière de la liberté, de la justice ou de la sûreté, qui découlerait d’entreprises privées vers le public. »
Les récentes tentatives de Facebook, de mettre en place une « cour suprême des contenus » (Facebook oversight board) chargée de trancher sur la politique de modération de l’entreprise n’achèvent pas de convaincre Dennis Tenen. Facebook a également illustré sa volonté d’ouvrir la modération à travers des formes de régulation collectives (en 2018, via une consultation sur les conditions d’utilisation du réseau, qui n’a cependant suscité que 0,3% de participation), et plus récemment, en étudiant la possibilité d’améliorer le « fact checking », non plus seulement en collaborant avec des journalistes, mais aussi en faisant intervenir les internautes dans le processus, une pratique sur laquelle nous manquons encore de recul.
***
La réflexion de Dennis Tenen implique bien sûr de rouvrir un certain nombre de débats anciens. D’abord, l’opposition entre universalisme et relativisme culturel. Si on peut tout à fait convenir que différentes conceptions de la liberté d’expression coexistent, certaines de ses interprétations et déclinaisons dans des communautés peuvent aller à l’encontre de ce que dicte la loi. Bien sûr, la loi peut évoluer au contact de nouvelles normes, cependant, jusqu’à quel point ? Ensuite, si l’on peut certes arguer de l’importance d’une modération plus décentralisée, et partant du bas, la place hégémonique des réseaux sociaux dominants, le nombre d’inscrits et les raisons pour lesquelles ils s’y retrouvent représentent des freins non négligeables. Sur Facebook, on se retrouve autour de nos liens sociaux (nous y sommes parce que « tout le monde y est », ou presque), et pas forcément dans un autre but précis. Comment dès lors, y organiser une modération partant du bas ? Autour de quel objet ? Et vu la quantité de messages qui transitent, comment modérer sans passer par des armées de petites mains à l’autre bout du monde ?
Ce qui est valable sur Facebook n’est en revanche pas forcément extensible aux groupes Facebook. Les groupes sont le plus souvent thématiques, et suivent des règles. A Pantin, où je vis, le groupe « Pantin Family », qui rassemble les familles pantinoises (6000 personnes) est modéré de près (par cinq ou six personnes). Certes, « Pantin Family » est soumis au CGU de Facebook, mais peut, à l’intérieur de ces règles, établir les siennes. En revanche, il reste tributaire des fonctionnalités que la plateforme fournit, ou ne fournit pas. Par exemple, les modérateurs peuvent interdire les commentaires sous un post, mais ne disposent pas de systèmes de votes (autres que les Likes et les 6 émotions disponibles par défaut).
Dans un registre similaire, Guillaume Champeau, l’éthiciste de Qwant, a publié en 2018 une « charte éthique Twitter contre le harcèlement et pour des débats constructifs ». Dans ce texte, il s’impose une série de devoirs, et demande à ce qu’on lui reconnaisse certains droits. Parmi ces devoirs, « Répondre directement aux tweets plutôt que de les citer ». Champeau explique que cette fonctionnalité est propice au harcèlement (« faire sortir de son contexte un tweet pour l’offrir en pâture à ceux qui me lisent »). Parmi les droits que Champeau demande qu’on lui reconnaisse : le droit de se tromper, le droit de ne pas être confondu avec son employeur. On notera que si cette dernière requête est purement comportementale (en gros : ajuster son discours), la première est également fonctionnelle. Le sur-retweet est une fonctionnalité de Twitter, que Guillaume Champeau le veuille ou non. Qu’il fasse le choix de ne pas s’en servir ne retire rien au fait que d’autres pourront l’utiliser.
Dans le cas de « Pantin Family », ou de Champeau, on peut convenir qu’il n’est pas impossible de se livrer à une certaine forme d’auto-régulation. Cependant, il faut constater ses limites. Sur « Pantin Family », on ne pourra toujours pas poster des images de femmes dénudées (même si le groupe décidait de l’accepter). Guillaume ne pourra pas empêcher que des milliers d’utilisateurs de Tweeter, tous les jours, en utilisant la fonction de sur-retweet pour humilier d’autres utilisateurs. Si les réseaux sociaux étaient des Etats, les CGU seraient en quelque sorte leurs constitutions, les fonctionnalités seraient leurs lois, et il ne resterait aux citoyens qu’une petite possibilité : s’imposer des circulaires à l’intérieur de ces cadres sur lesquels ils n’ont pas la main.
Récemment, mon ami Antoine Saint Epondyle proposait un mode de modération – ou plutôt des règles d’échanges – sur le fil de discussion de l’association le Mouton Numérique. Ces règles sont celles d’un forum de rôlistes alternatifs. On y retrouve quelques principes simples : « La personne qui ouvre un fil est responsable de sa modération – La modération peut être déléguée à une autre personne, si celle-ci est volontaire. » ou plus appuyés, comme le « principe de charité » qui prévoit la chose suivante : « Supposez toujours a priori que les personnes qui s’expriment sont de bonne foi, même si vous avez l’impression que ce n’est pas le cas. » La charte incite également à remercier les participations qui « font réfléchir », à faire preuve d’humilité, à pardonner, ou encore à se laisser le temps car « une controverse qui vous semblait inacceptable sur le moment peut vous apparaître sur un jour totalement nouveau en la relisant quelques heures plus tard. »
L’intérêt de ces règles n’est pas uniquement cosmétique. Il répond à des utilisations précises des réseaux sociaux à l’intérieur de nos communautés. Sans dévoiler toute la vie d’Antoine, je peux dire qu’il n’est pas particulièrement fan des modes d’échange synchrones. Et de fait, rien ne dit que dans l’absolu, nous ayons vraiment besoin de messages instantanés pour tout. A bien y réfléchir, nous pourrions « ralentir » nos échanges, ou les désynchroniser, sans nuire à leur qualité, ni à la qualité de l’information. C’est notamment ce que promeut Tariq Krim à travers le « Slow web », ou encore Dominique Boullier dans son livre Comment sortir de l’emprise des réseaux sociaux (Le Passeur, 2020). Ces principes alternatifs, censés favoriser l’entente, s’opposent à ceux de Facebook ou Twitter qui ont intérêt à amplifier les colères et à susciter de l’indignation. Ils ont donc des implications fonctionnelles directes (un certain nombre d’initiatives existent pour incarner ces principes, je renvoie pour cela vers l’excellent billet d’Hubert Guillaud, Ré-imaginer l’internet : pour des médias sociaux publics).
La modération de la parole en ligne est tributaire des possibles fonctionnels, lesquels reposent sur des objectifs des plateformes, et ces objectifs sont défendus par les personnes au pouvoir au sein de ces plateformes (objectifs économiques pour Facebook, peut-être plus sociaux sur des plateformes alternatives). S’il y a bien une certitude, c’est que la réflexion sur les modalités de modération, aussi variées soit-elles, ne sauraient être pertinentes si on se contente de les repenser en bout de chaîne…
Irénée Régnauld (@maisouvaleweb),
Pour lire mon livre c’est par là, et pour me soutenir, par ici.
Ces constats rejoignent ceux de beaucoup. <a href= »https://www.greens-efa.eu/dossier/why-we-need-an-internet-that-works-for-people-and-is-led-by-people/ »>Par exemple des Verts européens qui ont produit une étude</a> pour affirmer que la modération automatisée de contenu n’était pas une solution, rappelant combien « la participation humaine aux décisions de modération contribue à instaurer la confiance et à promouvoir de bons comportements. » Une critique de l’automatisation que l’on retrouve également chez nombre de chercheurs du sujet, comme Gillespie, <a href= »https://www.internetactu.net/2019/02/22/de-la-moderation-enjeux-limites-remedes/« >qui explique très bien</a> que cette automatisation vise à « détacher le jugement humain » de la tâche à réaliser. Il souligne pourtant que la modération humaine n’est pas non plus l’idéal qu’on lui prête. L’échelle, la taille des réseaux, le nombre de contenus à modérer a conduit au développement d’outils dédiés sont venus pallier à des pratiques qu’il n’était plus possible d’assurer. Effectivement, nous avons basculé dans un régime industriel qui porte en soi une vision de la liberté, de la justice ou de la sécurité, qui n’est pas la même que celles que peuvent porter des communautés plus réduites. Mais plus que la massification des pratiques, il me semble que c’est leur industrialisation qui pose de plus en plus problème, notamment parce qu’elle est imposée sans nuance, sans discussion, sous forme d’un « régime universel qui n’est ni transparent ni démocratique » comme le dit Tenen.
[…] avoir licencié pendant le Covid…– Etsy rachète Depop 1,6 Md$.– Pourquoi la modération en ligne ne peut pas obéir à des règles […]
Des chercheurs de l’Université de Washington ont étudié quelles interfaces permettraient de mieux discuter de nos désaccords en ligne. Ils ont interrogé 137 américains de camps politiques différents. L’idée étant de dépasser le « je te bloque ». Ils en tirent notamment 12 interfaces différentes qui, chacune à sa manière, permet de gérer un désaccord, ou de désamorcer une tension montante.
https://www.washington.edu/news/2021/04/19/uw-researchers-studying-how-to-make-online-arguments-productive/