Quand trop de données tuent la prise de décision

Dans la revue Scientific Americain, la chercheuse Zeynep Tufekci (@zeynep) signe une tribune dans laquelle elle explique pourquoi trop d’information n’aide pas toujours à prendre les meilleures décisions. Noyés sous un flot de données souvent contradictoires, nous nous embrouillons et ne savons plus quoi penser ni comment agir. Un phénomène très lié à l’infobésité ou « surcharge informationnelle » et qui vient mettre en question l’usage des Big Data comme mode d’aide à la décision dans un environnement incertain.

L’histoire est la suivante : la chercheuse raconte comment l’année dernière, elle fut mise devant un choix cornélien alors que deux ouragans s’approchent de son lieu de vie. Faut-il rester ou partir, sachant que rien n’oblige à quitter son domicile si celui-ci n’est pas dans la zone d’évacuation ? Zeynep Tufekci raconte s’être d’abord renseignée grâce à la télévision où semble-t-il, les dangers sont exagérés. Un biais qui se justifie aisément : mieux vaut assurer que tous ceux qui devraient fuir le fassent même si cela s’avère inutile, plutôt que de risquer qu’ils restent chez eux. Peu avancée, la chercheuse se tourne vers internet où des d’experts du climat argumentent dans un sens et dans l’autre : les modèles font la girouette, prévoyant une tempête allant un coup vers le nord, un autre vers le sud. Ces conversations génèrent un flux de discussions supplémentaires entre experts.

Less is more

A ce stade, la chercheuse explique être en possession de trop d’informations pour décider. C’est le fameux « paradoxe du choix » que nous avons tous vécu en nous promenant à travers 200 chaînes de télévisions ou séries, sans parvenir à se fixer. Dans certaines circonstances : trop d’options nous limite, c’est la « paralysie de l’action » qu’a décrit Barry Swhartz dans son livre The paradox of choices: why more is less. L’autre paradoxe, c’est que nos modèles sont de plus en plus capables de prédire de grands événements, comme un ouragan, mais ne sont pas toujours pertinents pour guider nos actions à de plus petites échelles : il y a une différence majeure entre « avoir beaucoup de données » et « avoir une information ». Ce qui manque selon Zeynep Tufekci, c’est l’échelon intermédiaire que la data science n’est pas toujours à même de fournir.

Cette petite comptine ne doit évidemment pas retirer l’intérêt qu’il y a à calculer, mesurer et prévoir des événements. Comme le dit le précepte de Lord Kelvin : on ne peut pas améliorer ce qu’on ne mesure pas. Pour autant, ce qu’on mesure n’est pas toujours utile, notamment parce que toute mesure occulte… ce qui n’est pas mesuré.

Plus on en sait, plus on se rend compte qu’on ne sait rien

L’analogie qui me semble intéressante cependant, est relative à ce qu’on fait de l’information lorsqu’on en a trop. Dans la société de l’information dont on vante les si grands mérites et où tout le savoir est supposément « disponible instantanément », la prise de décision n’est pas rendue plus simple et claire pour autant.

Cela est probablement dû à un certain nombre de phénomènes, j’en dénombre ici trois – qui n’ont rien de strictement nouveaux – et dont le premier, proche de ce qu’avance Zeynep Tufekci, serait le suivant : plus on en sait, plus on se rend compte qu’on ne sait rien. C’est aussi une des caractéristiques du progrès scientifique qui ne fait au fond que repousser les limites de notre ignorance. Chaque petit saut dans la connaissance scientifique augmente le savoir un tout petit peu, mais accroît l’ignorance énormément en apportant surtout beaucoup d’interrogations nouvelles, d’incertitudes, de champs inconnus. Quand on a découvert que les étoiles dans le ciel n’étaient pas suspendues au plafond par une pure opération divine, il a fallu creuser plus profond pour comprendre ce qu’il en retournait, avec les découvertes que l’on sait.

It’s (too) complicated

Le deuxième phénomène est une déclinaison du premier et touche à la formalisation de nos opinions. Dans certains cas, plus l’on est confronté à une variété de points de vue, plus on risque de se décourager de comprendre une situation, voire de tomber dans un relativisme total (sous la forme de « c’est trop compliqué pour décider »). Certains bots russes par exemple, ont employé des techniques de « neutrollisation » qui consistent à soumettre les citoyens à un flux d’informations contradictoires afin de les désorienter, et de les éloigner de tout débat politique.

Dans un article sur The Conversation, les chercheurs Xymena Kurowska et Anatoly Reshetnikov écrivent à ce propos : « En brouillant ainsi les facultés cognitives critiques du citoyens – en l’attirant dans un flux d’informations pour le troubler – la neutrollisation va bien plus loin que la censure. Le processus n’a pas pour but de cacher la vérité ou d’imposer ses propres idées. Mais bien d’exploiter les limites de la libre expression et de l’action militante en conduisant les citoyens à se retirer d’eux-mêmes de la vie politique. »  Autre effet plus anecdotique de cette surcharge cognitive : une pathologie appelée au japon « hikikomori du savoir » qui peut conduire un internaute à s’engouffrer dans des labyrinthes de documentaires spécialisés (on a tous un copain / une copine qui fait ça). Ce genre de comportement exacerbé aboutit souvent à un isolement plus ou moins total de l’individu, qui peut durer plusieurs années.

On ne croit pas ce que l’on sait

Un troisième phénomène saillant qui obstrue notre capacité à prendre des décisions est probablement à mettre sur le compte d’une forme de biais de confirmation qui s’illustre bien avec la comptine du « biais de l’arrêt de bus » (piquée ici) : « Dans une expérience, une personne voit deux arrêts de bus à un carrefour et doit en prendre un, quel qu’il soit. Elle choisit un des deux arrêts. Un bus passe, mais à l’autre arrêt, et repart. La personne reste devant son arrêt à elle en se disant que le prochain sera pour elle. Un autre bus passe. Toujours à l’autre arrêt, et repart. La personne reste devant son arrêt à elle en se disant que le sien ne va pas tarder. Et ainsi de suite. En fait aucun bus ne va jamais passer devant son arrêt. La seule chose logique à faire est de changer d’arrêt. Selon les individus, il faut parfois deux ou trois passages de bus à l’autre arrêt avant qu’ils ne se décident d’en changent. »

Autre fait amusant : lorsqu’on introduit une nouvelle personne à l’expérience, le premier sujet tente de la convaincre de rester à cet arrêt, ce qui verrouille tout le monde dans l’erreur. Transposée à la vie sociale, ce phénomène peut avoir des effets immenses. Prenons par exemple le dérèglement climatique : nous sommes tous face à un déluge de faits (milliers d’études compilées dans les rapports du GIEC, nombreux films et documentaires, lettres ouvertes et pétitions qu’on ne compte plus, etc.), et pourtant rien, ou très peu n’y fait : nous sommes très loin de ce qu’il faudrait faire pour suivre les courbes de réchauffement préconisées par (presque) tous les scientifiques du monde. Comme l’explique le philosophe Jean-Pierre Dupuy « on ne croit pas ce que l’on sait ». Une nouvelle preuve que l’information ne peut pas être le seul guide pour l’action.

On pourrait ajouter à ce dernier phénomène une donnée supplémentaire qui ne facilite pas les choses : la vitesse de propagation des fausses nouvelles. Comme l’explique Sylvestre Huet qui relate une expérience menée par le MIT : « En moyenne, il faut six fois plus de temps au vrai qu’au faux pour toucher 1500 personnes, et vingt fois plus de temps pour atteindre les dix nouveaux départs de retweets. »

Faire du neuf…

Il existe sans doute un tas d’autres explications rationnelles qui pourraient enrichir cette démonstration. Leur caractère commun, me semble-t-il, réside dans le mode de discussion de l’information. Les différents phénomènes exposés ici montrent que nous traitons (trop souvent) des données qui se contredisent sous la forme d’un dialogue de sourd géant. Dit autrement : nous sommes pris dans une juxtaposition de monologues qui se percutent dans le débat, mais pas dans la délibération. Les deux notions (débat et délibération) sont proches mais une nuance les sépare : le débat postule une discussion où chacun expose ses arguments, avec le risque de vouloir convaincre l’autre en refusant de changer d’avis. La délibération demande bien sûr du débat, mais a lieu dans l’optique de se concerter pour prendre une décision ou résoudre un problème. Par exemple lors d’une assemblée, d’un conseil ou d’une instance décisionnelle. Les points de vue sont donc confrontés dans le but de trancher un choix difficile. La délibération se rapproche plus de la dialectique qui, comme le développe Hegel, consiste à passer d’une étape à une autre sans pourtant nier l’étape qui est ainsi dépassée.

Or si le monde s’est complexifié, il semblerait que nous outils n’aient pas suivi. J’ai personnellement un mal fou à me positionner sur tout un tas de sujets, non pas par manque d’information – ni je pense, à cause d’un déficit de valeurs, de convictions, ou d’une forme de nihilisme qui ne dirait pas son nom – mais par manque de structures qui permettent une discussion entière avec les autres sur les enjeux qui permettent d’articuler l’information. Prenons un exemple récent : l’utilisation du glyphosate. Le débat autour de ce pesticide est tout à fait révélateur des points traités ici : il y a énormément d’informations, elles sont contradictoires et très polarisées. L’essentiel du débat se focalise sur les aspects purement scientifiques, études à l’appui, et les effets sur la santé (des hommes, parfois de la biodiversité). Si l’on regarde les éléments qui polarisent le débat, ceux-ci sont plutôt liés à des visions du monde, plus ou moins technicistes, plus ou moins confiantes en la science, et relative au modèle de production qu’une société devrait ou non adopter pour survivre. Bref : la glyphosate n’est pas qu’une question scientifique, c’est aussi une question philosophique (qui ne peut pas se résoudre juste en pointant Monsanto du doigt, ni en se contentant d’expliquer que les risques pour la santé n’existent pas). A quel moment nos procédures permettent un réel débat de société sur cette question ? Je n’ai pas la réponse. Je remarque en revanche que de nombreuses initiatives s’articulent un peu partout pour faire « redescendre » ces questions au niveau des citoyens (ici ou ), sous la forme d’assemblées, de discussions publiques et autres simulations de processus qui n’existent pas, ou plus, dans nos sociétés.

S’il y a une conclusion, elle est bien banale : nous n’avons pas seulement besoin de plus d’information, mais de procédures sociales pour les traiter en commun. La recette n’a rien de très nouveau, reste à inventer ou remettre sur pied les bons outils pour assurer ce « grand débat ».

Irénée Régnauld (@maisouvaleweb), pour lire mon livre c’est par là, et pour me soutenir, par ici.

S’abonner
Notifier de
guest
3 Commentaires
Inline Feedbacks
View all comments
trackback

[…] Quand trop de données tuent la prise de décision (maisouvaleweb.fr) […]

Sid
Sid
4 années il y a

L’article met le doigt sur un phénomène juste. On a aujourd’hui une boulimie d’informations servie par des médias spectacularistes ou simplistes, pour la plupart n’ayant aucune pertinence ou aucun intérêt pour notre vie immédiate, et qui servent juste, chez les citoyens de base, à créer de la peur, une certaine forme de paranoïa et comme vous le dites, une bonne dose de confusion.

Paradoxalement, à l’ère des flux RSS actualisés chaque seconde, on manque cruellement de sens, de visions du monde globales et long termistes. Pour moi, c’est ça qui entraîne le processus décisionnel. Sur la question du glyphosate, de la technologie ou de n’importe quoi, vous pouvez trouver des dizaines d’informations qui iront « pour », et des dizaines « contre », mais c’est votre position personnelle par rapport à ça qui déterminera votre choix. Des dizaines, centaines, ou milliers de choses factuelles ne créent pas le réel. C’est le rapport du sujet pensant à ce réel et ses positions qui contribuent à créer cela.

« Plus on sait, plus on se rend compte qu’on ne sait rien » ne me paraît pas trop problématique dans la mesure où on peut quand même avoir des certitudes, à condition de garder à l’esprit qu’elles peuvent être ébranlées ou détruites par un nouveau paradigme. Le doute absolu de tout sur tout est d’ailleurs impossible, c’est un Enfer mental sur lequel on ne peut rien édifier, à mon sens.

Bref, plutôt que d’avoir beaucoup d’infos, il serait préférable d’avoir celles qui sont utiles, et de savoir quoi en faire. La qualité plutôt que la quantité !

Ester
4 années il y a

Merci pour cet article extrêmement complet sur les biais cognitifs à l’oeuvre par rapport à l’info-obésité.
Cela me permet d’avancer sur l’écriture de mon livre et d’intégrer une réflexion intéressante qui est celle de la nécessite de mettre en place des filtres communs.