Fake news et accès à l’info : les “bulles de filtres” ne sont pas le plus gros problème !

Filter bubble is the new Dark web

Un billet proposé par Jérémie Poiroux, designer à l’ENS Lyon

Rémi Metral est étudiant en journalisme à l’ISCPA Lyon. Il travaille en ce moment sur un mémoire qui traite des effets des algorithmes sur notre accès à l’information et m’a posé quelques questions qu’il intégrera à son travail. Avec son aimable autorisation, je reproduis ici l’interview.

Pablo Barbera, chercheur à l’Université de New York, semble avoir mis en échec la théorie de la bulle de filtre (“filter bubble effect”) d’Eli Pariser dans une étude intitulée “How social media reduces mass political polarization” (2014). D’après toi, cela remet-il intégralement en cause l’idée des bulles de filtres ?

Il faut comprendre que la théorie de la bulle de filtre est développée par Eli Pariser (2011) pour dénoncer les pratiques de l’économie de l’attention des géants du web tels que Google ou Facebook. Il estime que les techniques de personnalisation enferment les utilisat·eurs·rices dans des bulles sans que ces derni·ers·ères s’en rendent compte.

Pour vous faire consommer, rien de mieux que de vous proposer ce que vous aimez déjà. Facebook fonctionne avec une économie du clic (du “like”). Ainsi, en vous proposant des contenus que vous appréciez, vous avez plus de chance de les “liker”. Cette donnée les informe de vos goûts et intentions et permet d’entretenir un cercle économique vertueux.

Pablo Barberà ne remet pas en cause la théorie de bulle de filtre. Ses recherches questionnent plutôt la théorie de la chambre d’écho (“echo chamber”) popularisée par Cass Sunstein (2001) et de l’homophilie sur Internet.

Un peu de contexte historique : les théories selon lesquelles nous sommes enfermés dans notre “monde” et notre “bulle” ne sont pas nées avec Internet. Dès les années 1940, des chercheurs (Lazarsfeld et al., 1944) étudient les sources et la sélection d’information par les électeurs, les concepts de biais de confirmation (Nickerson, 1998) et de dissonance cognitive (Festinger, 1954). Plus récemment McPherson (2001) a développé une théorie de l’homophilie.

Toutes ces recherches démontrent à quel point nous sommes hostiles à des informations qui ne “collent” pas à nos croyances et valeurs et à quel point nous nous rapprochons de celles·ceux qui nous ressemblent.

L’éveil actuel autour de la bulle de filtre montre une prise de conscience nécessaire de la balkanisation de la société en ligne et des différences d’accès à l’information. Mais elle se trompe parfois de cheval et reflète une confusion (ou une méconnaissance) de théories qui sont plus anciennes.

Le travail de Barberà dévoile que sous certains aspects et conditions, les effets de polarisation et de chambres d’écho ne sont pas valables sur Twitter. Aussi, il a remarqué que les personnes — c’est une bonne nouvelle — avait plus accès à des informations d’un autre bord politique sur Twitter que grâce aux médias traditionnels.

Il est aujourd’hui impossible de répondre si oui ou non les algorithmes de recommandation et les techniques de personnalisation nous enferment dans des bulles plus que nous nous enfermons nous-mêmes. 

Bakshy et al. (2015) ont mené une étude à ce sujet sur Facebook mais leurs conclusions, bien que solides d’un point de vue scientifique, sont décriées pour la bonne raison qu’ils travaillent (pour deux d’entre eux) pour Facebook.

Je pense qu’on ne sera pas fixé de sitôt.

Bulles informationnelles et bulles de filtres sont-elles la même chose ?

Comme vu à l’instant, les bulles de filtres sont le résultat d’effets algorithmiques. Si l’on veut donc décrier les potentielles conséquences de la personnalisation et de la recommandation, on peut parler de bulles de filtres.

En revanche, si on mentionne des phénomènes sociaux et qu’on débat de questions sociologiques comme le puzzle de la sélection vs. l’influence, alors il vaut mieux éviter le terme de bulle de filtre et parler de communautés, groupes sociaux ou encore de clusters.

Le terme de bulle (tout court) est intéressant. On peut le voir comme un synonyme de plusieurs concepts dont celui de chambre d’écho et fait plutôt référence à l’étude des phénomènes en ligne (en opposition à des concepts comme l’homophilie qui sont universels).

Sur l’apposition du terme “informationnelle”, difficile d’y répondre car ma recherche porte justement dessus.

Est-ce dans “l’ADN” des algorithmes utilisés pour proposer de l’information de produire ce type d’effets ? Autrement dit, pourrait-on envisager des algorithmes qui ne produisent pas de bulles informationnelles ?

Si on considère que les algorithmes actuels produisent effectivement des bulles de filtre, on peut tout à fait imaginer des algorithmes qui n’en produisent pas.

La personnalisation du contenu est un sujet complexe. Comme vu plus haut, nous “personnalisons” nous-mêmes notre accès à l’information. Si nous préférons lire de l’information locale plutôt qu’internationale, pourquoi ne pas cliquer sur une option plutôt que de faire le tri nous-mêmes ? Certains médias vont miser sur des algorithmes qui respectent la sérendipité idéale du web et vous proposer, en plus des contenus qui conviennent à vos préférences, des infos qui pourraient potentiellement vous intéresser.

Selon moi, il faudrait travailler sur la transparence des techniques de personnalisation. Comment designer un système avec des options accessibles à l’utilisat·eur·rice et une possibilité pour celui·celle-ci de voir les effets de ces options.

Par exemple, au lieu de demander à l’internaute si il·elle souhaite voir apparaître ou non de l’information internationale sur sa page personnalisée, son média favori pourrait lui laisser le choix de la proportion. Dans ce cadre, il est aussi important de lui montrer des informations qu’il aura volontairement mis de côté (et de fait, de hiérarchiser l’information).

Malheureusement, même si un tel système verrait le jour sur un grand média, une énorme partie de l’information en ligne est consommée sur Facebook… Et le réseau social n’a pas l’intention de rendre son NewsFeed (donc son business) transparent et paramétrable. Là repose le souci principal.

Ces bulles constituent-elles un terrain propice à la désinformation, aux “fake news” et autres faits alternatifs ?

Que les bulles constituent un terrain propice à la désinformation est indéniable. Que ces “bulles de filtres” soient une cause, c’est discutable. J’ai du mal à croire que beaucoup de personnes se sont retrouvées enfermées dans une niche du web par hasard, n’arrivent pas à en sortir et/ou ne soient pas conscientes qu’elles sont dans une “fake news bubble”.

Les personnes qui sont dans ces bulles de faits alternatifs n’ont pas besoin de Facebook, ni du web pour y tomber et y rester. Le problème des fausses informations est plutôt une question de propagation. On l’a vu, les sites d’extrême-droite sont très bien représentés sur Facebook, leurs pages récoltent beaucoup de “likes” et leurs informations se propagent vite, touchant un certain nombre de personnes qui ont cliqué un peu vite et ont repartagé sans lire — et encore moins vérifié — le contenu.

Sur le combat contre les fake news qui s’est intensifié ces derniers temps, je trouve qu’il n’est pas toujours très subtil. Le journalisme ne doit pas oublier qu’il n’est pas objectif, par essence ! Tout contenu transporte avec lui un ensemble de valeurs. Vous avez beau fact-checker des assertions dans tous les sens et en sortir le “vrai”, si vous n’avez plus de légitimité aux yeux d’une certaine frange de la population, alors l’exercice est inutile pour celle-ci.

Je dirais que le journalisme exprime une vision de l’information et s’inscrit dans un certain régime de vérité, le régime dominant (mais fortement bousculé). Dans celui-ci, des sources comme l’INSEE (et ses données), le Ministère de l’Intérieur ou d’autres médias sont réputées comme fiables. Mais dans un autre régime de vérité, toutes ses institutions sont jetées à la poubelle et remplacées par d’autres institutions diffusant la “vraie” information.

S’il y a un combat à mener, c’est celui de l’éducation aux médias, pour apprendre à analyser, lire et décortiquer un contenu sur le web (sans mode d’emploi ni codex). Chose facile, n’est-ce pas ? Le deuxième enjeu est de rendre le fonctionnement des algorithmes accessible au plus grand nombre, mais nous y viendrons à la dernière question.

Comment s’informer correctement en 2017 ?

Un certain nombre d’initiatives sont nées ces derniers mois pour éclater sa bulle (de filtre), comme celle du Wall Street Journal, Blue Feed, Red feed qui propose de voir les informations de médias conservateurs et libéraux postées sur Facebook côte-à-côte. Cet article du New York Times donne même une liste d’outils qui existent pour sortir de notre bulle.

En fait, pour répondre honnêtement à la question : comme en 2016, comme en 2006, comme en 1976. Par vous-même, lisez plusieurs sources de médias, discutez et débattez avec vos ami·e·s, n’ayez pas “peur” de parler politique (qui ne se résume pas à la politique politicienne).

Dévorez votre fil Facebook si cela vous plaît, cliquez sur les informations qui vous intéressent, mais efforcez-vous également de cliquer sur les rares qui n’expriment pas votre point de vue. Pour la majorité des internautes, Facebook nous a rendu plus paresseux, c’est dans leur intérêt économique. Secouez un peu votre feed vous-même ! Sur Twitter, abonnez-vous à des personnes qui n’ont pas votre opinion, ajoutez un ou deux médias de l’autre bord sur votre flux RSS, etc.

D’après toi comment les journalistes devraient-ils réagir (en termes de méthode de travail, d’approche, d’éthique) face aux algorithmes qui influent sur la circulation de l’information ?

Pour commencer, ne pas propager une méconnaissance du concept de bulle de filtre. Cet exemple est typiquement ce qu’il faut éviter de faire : un reportage dans la “bulle de filtre”, en la considérant comme un unique endroit enfouis (l’entre-soi des ultra-conservateurs) et qui ne serait même pas le résultat d’agissements algorithmiques.

Le Temps l’explique très bien ; les journalistes doivent considérer les algorithmes comme un terrain d’investigation. Le Wall Steet Journal et ProPublica ont sorti d’excellents articles analysant les discriminations algorithmiques. Nick Diakopoulos (2014), chercheur à l’Université du Maryland, fournit même des éléments aux journalistes pour mener ces enquêtes.

Il y a plusieurs manières d’investiguer sur les algorithmes (Kitchin, 2017). La majorité des Françai·se·s ne maitrise pas la notion d’algorithme. La première étape est certainement de montrer les algorithmes et d’expliquer ce qu’ils font dans notre vie de tous les jours.

Ensuite, on peut s’intéresser à l’algorithme lui-même, comment il est construit, ce qu’il fait. On peut le mettre à l’épreuve avec du reverse engineering (Diakopoulos, 2015) ou encore essayer d’ouvrir la boîte noire (Pasquale, 2015).

Il me paraît également indispensable d’enquêter sur les méthodes et les manières de concevoir les algorithmes (Seaver, 2013). Qui est derrière le programme, avec quelles méthodes a-t-il été conçu, comment a-t-il été testé ? Toutes ces questions, qui s’éloignent de la technique, nous rapprochent de l’origine de tous ces systèmes : la volonté humaine.

Références

Bakshy, E., Messing, S., & Adamic, L. A. (2015). Exposure to ideologically diverse news and opinion on Facebook. Science, 348(6239), 1130–1132.

Barberá, P. (2014). How social media reduces mass political polarization. Evidence from Germany, Spain, and the US. Job Market Paper, New York University, 46.

Diakopoulos, N. (2014). Algorithmic accountability reporting: On the investigation of black boxes. Tow Center for Digital Journalism, Columbia University.

Diakopoulos, N. (2015). Algorithmic accountability: Journalistic investigation of computational power structures. Digital Journalism, 3(3), 398–415.

Festinger, L. (1954). A theory of social comparison processes. Human relations, 7(2), 117–140.

Kitchin, R. (2017). Thinking critically about and researching algorithms. Information, Communication & Society, 20(1), 14–29.

Lazarsfeld, P. F., Berelson, B., & Gaudet, H. (1944). The people’s choice: How the voter makes up his mind in a presidential election. New York: Duell, Sloan and Pearce.

McPherson, M., Smith-Lovin, L., & Cook, J. M. (2001). Birds of a feather: Homophily in social networks. Annual review of sociology, 27(1), 415–444.

Nickerson, R. S. (1998). Confirmation bias: A ubiquitous phenomenon in many guises. Review of general psychology, 2(2), 175.

Pariser, E. (2011). The filter bubble: What the Internet is hiding from you. Penguin UK.

Pasquale, F. (2015). The black box society: The secret algorithms that control money and information. Harvard University Press.

Seaver, N. (2013). Knowing algorithms. Media in Transition, 8, 1–12.

Sunstein, Cass. (2001). “Republic. com. »

3 comments

  1. Pingback: Compréhension, analyse et décryptage des médias (EMI) | Pearltrees

  2. Pingback: Articles - knuuuck | Pearltrees

  3. Pingback: L'info en ligne: mesurer sa fiabilité | Pearltrees

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *