Dans des domaines aussi vitaux qu’une pandémie mondiale ou le dérèglement climatique, la connaissance scientifique détermine notre capacité à agir politiquement. Mais à l’heure où le déni des faits scientifiques menace, la tentation est grande d’exclure les citoyens de débats jugés trop techniques pour eux. Dès lors, comment réarticuler sciences et démocratie ? Dans son ouvrage Politics and expertise, How to use science in a democratic society (Princeton University, 2022), la politiste Zeynep Tamuk défend l’idée suivante : démocratiser la science ne peut se faire qu’à condition d’abandonner sa prétention à la neutralité et à la vérité absolue. Il faudrait au contraire, selon elle, en monter toutes les lacunes afin d’éclairer au mieux la décision publique au travers de mécanismes institutionnels et juridiques renforcés.
Tremblement de terre
Le 06 avril 2009, un tremblement de terre d’une magnitude de 6,6 est ressenti dans le centre de l’Italie, et cause la mort de 308 personnes, notamment dans la ville de L’Aquila. Dans les trois mois qui précédèrent la catastrophe, les habitants avaient senti des secousses. Un scientifique travaillant à l’Observatoire National du Gran Sasso avait bien alerté sur la possibilité d’un séisme majeur en se basant notamment sur la mesure des variations du gaz radon (un indice qui ne constitue cependant pas une preuve suffisante pour prévoir un tel événement). Cependant, c’est suite à un meeting organisé par les autorités locales avec sept sismologues que la décision est prise de ne pas évacuer la ville. En effet, pour ces derniers, le risque n’était pas nul mais hautement improbable…
Cette tragique anecdote constitue le point de départ de Zeynep Tamuk. En y puisant, la politiste approfondit les habituels débats autour des relations entre science et décision collective qui bien souvent, en restent à la question de savoir comment agir à partir de la connaissance existante, sans en interroger les présupposés ni les limites. Tamuk, elle, s’intéresse aux incertitudes, aux failles, aux incomplétudes et aux représentations sous-jacentes au travail scientifique. Les résultats de la science, affirme-t-elle, ne sont pas neutres. La sélection et le financement des questions de recherche compte car, dans des contextes de prise de décision, ce qu’on connaît pas n’est pas moins important que ce que l’on connaît. Aussi, notre perception des sciences et de la robustesse de leurs résultats est encore tributaire d’un certain idéalisme dont nous devrions sortir : « nous n’avons pas besoin de croire que la science est infaillible pour en faire un usage productif ».
Dès lors, Tamuk défend l’idée que les « non experts » devraient pouvoir mieux examiner et contester le travail scientifique afin d’en saisir les faiblesses, de comprendre les valeurs qui nécessairement, influent sur la manière dont celui-ci est mené. Ce travail de vérification appelle des propositions institutionnelles qu’elle détaille dans son développement. C’est une ligne de crête qu’emprunte la chercheuse, qui admet volontiers les risques que comporte sa thèse. Aussi se défend-elle d’une chose : en aucun cas elle ne souhaite par son travail ajouter à la défiance ambiante envers les sciences, elle affirme en revanche que négliger l’importance de la démarche qu’elle propose revient à ignorer la racine de nombreux problèmes, ce qui revient de fait à les accentuer.
L’influence des valeurs sur le travail scientifique
Les valeurs morales, politiques, culturelles sont loin d’être absentes du travail scientifique. Celles-ci imprègnent la recherche à toutes ses étapes, de la sélection des questions qui valent d’être étudiées à la mise en place des méthodologies, de collecte de données, d’acceptation ou de rejet des hypothèses, jusqu’à l’application des résultats dans le but de résoudre des problèmes pratiques.
Zeynep Tamuk livre plusieurs exemples pour étayer son propos. Elle revient tout d’abord sur l’usage fréquent de concepts normatifs caractérisant un résultat scientifique. Les notions de « nuisance » par exemple, ou de « préjudice » font partie de ces termes – des « thick concepts » – qui impliquent des notions de seuils se référant à des idéaux toujours discutables. Décrire une tumeur comme bénigne ou maligne par exemple, signifie que celle-ci est indésirable pour l’être humain suivant un idéal normatif de ce que doit être la santé, et l’usage de ces termes implique une éventuelle intervention médicale pour la retirer ou la traiter de façon appropriée. Mais la détermination des seuils n’est pas toujours aussi consensuelle. Ainsi, l’évaluation des risques posés par les pluies acides en Amérique du nord dans les années 1980 a suscité une controverse entre les Etats-Unis et le Canada, le terme « dommage » ne recouvrant pas la même réalité de part et d’autre de la frontière, les uns faisant commencer les « dommages » à un ph de 5.0, les autres à 6.0. Considérant que tout ce qui n’entrait pas dans la catégorie « dommage » allait probablement être ignoré, ce désaccord sémantique allait nécessairement susciter des conséquences pratiques : « la définition des concept a le pouvoir de rendre un événement naturel pertinent ou non pour la sphère de l’action politique ».
De même, la manière avec laquelle les contrôles randomisés sont effectués n’est pas sans rapport avec les résultats obtenus. Les luttes de certaines associations comme Act-up l’ont montré dans les années 1980 alors que certains laboratoires pharmaceutiques n’incluaient pas dans leurs études les personnes concernées par la maladie, dont beaucoup prenaient des médicaments qui rétroagissaient sur les traitements proposés. Notre situation épistémique est autant marquée par ce que nous connaissons que par ce que nous ne connaissons pas, et par les buts que nous choisissons consciemment ou non de ne pas poursuivre.
Zeynep Tamuk précise ne pas pour autant rejoindre l’idée d’une construction pleinement sociale de la science (suivant laquelle ses résultats ne dépendraient in fine que de leurs conditions de production) : « je ne remets pas en question la fiabilité empiriques des résultats, hormis pour mettre l’emphase sur le fait qu’ils sont nécessairement incomplets et incertains ». Or si les découvertes scientifiques déterminent, au moins en partie, les options politiques disponibles, alors l’ouverture des sciences au processus démocratique est une nécessité. Celui-ci doit intervenir assez tôt, et devrait selon la politiste s’accompagner d’un changement dans les discours sur la science et sa construction, y compris dans les médias spécialisés.
Mieux raconter et disputer la science
Au-delà du constat de la présence de normativité dans les sciences, Zeynep Tamuk livre une critique des nombreuses organisations et comités scientifiques mis en place à des fins de dialogue avec la société et ses représentants. Son argument : leur prétention à la neutralité peut parfois constituer un frein à leur efficacité. Le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC), qui est probablement l’organisation scientifique la plus connue, fonctionne encore selon un schéma séparant strictement la fabrique de la science par l’autorité scientifique, et la sphère des décideurs qui disposent ou non de ce savoir (ils en disposent d’ailleurs si peu que certains se demandent si le GIEC sert encore à quelque chose).
Bien consciente de la difficulté qu’ont les scientifiques à « s’engager » sans saper ce qui fait leur autorité, la politiste n’en défend pas moins l’idée selon laquelle cette neutralité n’est pas toujours si désirable, ni d’ailleurs effective. Comme le montrait la sociologue Sheila Jasanoff, les agences ou autres structures consultatives dans le domaine des sciences ne sont jamais totalement impartiales, ne serait-ce que parce qu’elles opèrent une simplification de l’état de l’art, simplification qui n’est pas neutre.
Aussi rappelle-t-elle que notre appréciation des comportements présumés antiscientifiques méritent à cet égard une relecture. Les parents qui par exemple, refusent de faire vacciner leur enfant au nom des risques que cela comporterait considèrent que l’utilité du vaccin est faible au regard de risques (faibles également) auxquels leur progéniture est exposée, et auxquels ils attribuent beaucoup d’importance. Partant du principe que l’utilité de la vaccination est d’autant plus utile à des échelles collectives, ce calcul peut sembler rationnel au niveau individuel. Ce qu’il traduit en revanche, c’est la faillite de la solidarité et du souci de la santé des autres membres de la société, particulièrement les plus vulnérables.
A cet effet, un avis scientifique trop figé et consensuel comporte le risque d’invisibiliser des désaccords, des faiblesses et des voix minoritaires. Tamuk précise : « Les votes des comités ne disent pas grand chose sur les sources de désaccord, et sur leur importance au sein du groupe. » La chercheuse en tire une conclusion radicale : les organisations scientifiques devraient faciliter ce travail de vérification en étant plus transparentes sur la pluralité des options discutées par les scientifiques. Cela ne revient pas à exposer des contre-vérités scientifiques (la rigueur du travail scientifique n’est pas remise en cause), mais à donner aux citoyens les outils pour un positionnement critique à partir de plusieurs options, tout en évitant les erreurs d’appréciation des scientifiques qui parfois aussi, peuvent coûter.
Les médias pourraient eux aussi participer de cet effort, en exposant plus clairement les limites de certaines découvertes scientifiques, en en pointant les compromis, les valeurs qui peuvent sous-tendre certaines recherches. Cette idée générale consistant à réaffirmer que la science est toujours incertaine serait pour elle plus utile et efficace que de désigner « des gagnants et des perdants », tout en permettant d’ouvrir plutôt que de fermer les débats, et en permettant d’outiller certains mouvements citoyens parfois trop rapidement évacués (au nom de la science). Les scientifiques quant à eux, devraient se sentir plus responsables – en tout cas moralement – vis-à-vis de l’usage qui pourrait être fait de leurs recherches, et en envisager les conséquences. Pour Pamuk, il conviendrait même que les scientifiques mettent l’emphase sur les dangers en situation d’incertitude : « si un polluant est concomitant à un pic dans les morts par maladies respiratoires mais que la preuve de la causalité reste incertaines, [ils] devraient considérer les conséquences morales dans le fait de privilégier la considération des risques plutôt que l’incertitude. »
Reste à savoir comment institutionnaliser ces disputes dans la sphère publique et institutionnelle. Comment rendre effective la mise en responsabilité des scientifiques ? Comment trancher (ou ne pas trancher) quand plusieurs options semblent s’opposer ?
La politiste propose de s’inspirer d’un pratique issue de la Cour suprême des Etats-Unis, l’écriture des « opinions dissidentes » (ou « opinions séparées »), qui permet au juge d’écrire une position alternative à celle défendue par la majorité de la cour.
Pour une « Cour de justice scientifique »
L’idée d’une Cour de justice scientifique n’est pas vraiment nouvelle. Déjà, dans les années 1970, Arthur Kantrowitz émettait l’idée d’une « Institution for scientific judgement » (finalement restée sous le nom « Science court » – à ne pas confondre avec le dessin animé éponyme). Un essai fut tenté dans l’Etat du Minnesota 1976 dans le but de résoudre une controverse concernant l’installation de lignes haute-tension dans des champs, un projet qui mécontentait les fermiers. Ceux-là refusèrent de participer à la « Science court », ne souhaitant pas cautionner un format qui établissait des frontières strictes entre les aspects scientifiques et politiques du projet. C’est précisément cet aspect que Pamuk entend régler avec sa proposition. Pour la politiste, l’orientation d’une telle institution est le « quoi faire » plutôt que le « quoi croire ». A ce titre, elle défend l’idée que les aspects politiques et scientifiques devraient être pris ensemble.
L’architecture dialogique qu’elle imagine est plutôt simple. Elle repose sur un socle déjà connu, celui des conventions citoyennes (ou conférences de consensus) qui permettent déjà d’élargir la délibération démocratique sur des sujets technoscientifiques, en faisant intervenir des citoyens tirés au sort et dûment formés. Cependant, Zeynep Tamuk rappelle les défauts de ces formats qui restent selon elle, encore trop tributaires des personnes qui les mettent en place : « Cela s’explique par le fait que beaucoup d’expérimentions délibératives sont organisées par des professionnels qui définissent leur agenda, sélectionnent le matériel nécessaire à la discussion, invitent les experts et préparent le socle d’information disponible en arrière-plan. Les politistes ont de longue date montré que ceux qui contrôlent l’agenda ont le pouvoir d’influencer les résultats. » Les citoyens sélectionnés, eux, sont trop souvent des « nodders » (des « hocheurs de tête ») et il leur manque encore la capacité à initier ces rencontres démocratiques et à contester la connaissance qui leur est présentée.
La cour de justice scientifique de Zeynep Tamuk pousse donc plus loin l’exercice démocratique. Tout d’abord, la politiste affirme qu’elle devrait pouvoir être à l’initiative des citoyens eux-mêmes, par exemple à partir d’une pétition ayant collecté suffisamment de signatures (NB : il existe en France depuis 2016 un « droit d’initiative » permettant de saisir la Commission nationale du débat public à partir de 10 000 signatures, mais celui-ci n’a jamais été utilisé). Les pétitionnaires garderaient le contrôle sur la question posée, à condition que celle-ci ne soit pas trop large. Tout comme pendant les conférences de consensus, un jury composé de citoyens tirés au sort composerait la cour et trancherait par un vote à la fin du processus. Cependant, la cour ne se contenterait pas d’auditionner des scientifiques mais de mettre en confrontation trois ou quatre positions rivales représentées par des experts devant se répondre les uns aux autres. La simple participation à cet exercice devrait permettre d’assurer une certaine qualité d’intervenants. Tamuk cite quelques questions qui pourraient être posées par l’entremise d’une Cour de justice scientifique : « Faut-il imposer un confinement pour ralentir l’épidémie de Covid-19 ? », « Les expérimentations de géo ingénierie à large échelle devraient être bannies (oui / non) », « Faut-il mettre en place la politique climatique A, B ou C dans le but d’atteindre les objectifs d’émission carbone pour l’année Y ? ».
Lors du vote final, le panel de citoyens resterait libre de décider de suivre une des positions présentées, ou d’affirmer que chacune des thèses rivales avancent différents arguments entendables et susceptibles de guider l’action. Ils pourraient également signifier le fait que l’information est manquante et qu’en rester au statu quo est préférable pour le moment.
Dire stop à (certaines) recherches scientifiques ?
Avant de plonger dans la partie du livre de Zeynep Tamuk qui pourrait susciter le plus de controverses, il est important de préciser que celle-ci est attentive aux modalités de financement de la recherche. La chercheuse explique et s’oppose à plusieurs écoles de pensée, de Vannevar Bush à Michael Ponalyi – pour ce ce dernier, la science est avant tout un processus linéaire et cumulatif ne devant obéir qu’à la seule curiosité des chercheurs sans interférence de la part de la société. Polanyi va même jusqu’à affirmer que la recherche scientifique devrait suivre le même schéma que celui de l’économie libérale, une économie faite d’entrepreneurs qui parce qu’ils poursuivent individuellement leur propre profit, répondent à l’intérêt général.
Tamuk défend un financement public de la science, mais convient aussi du fait que cela ne suffit pas à orienter celle-ci vers des directions souhaitables relativement aux objectifs socio-économiques qu’une société se fixe. Aussi, si certaines recherches devraient être favorisées, d’autres pourraient être arrêtées, et certaines applications scientifiques interdites.
Les demandes d’interdiction et de moratoires dans les domaines scientifiques et socio-techniques ne sont pas rares. Qu’ils s’agisse de certaines applications de l’intelligence artificielle (par exemple dans le domaine des armes autonomes), ou de la géo-ingénierie solaire, ces demandes s’entendent au regard des risques encourus et de leurs échelles. Ces dernières années, des interdictions ont été demandées ou mises en place dans des domaines aussi diverses que les manipulations de l’ADN, ou encore la création de virus mortels en laboratoire. L’autrice en tire deux questions majeures. D’abord, sous quelles conditions la volonté démocratique peut-elle s’exercer pour formuler une telle interdiction ? Les « peurs » sont-elles un argument suffisant pour limiter la « liberté académique » ? Ensuite, si l’interdiction des applications de la science (les technologies) s’entend, qu’en est-il de la science elle-même : peut-on interdire à des chercheurs d’approfondir les connaissances dans un domaine en particulier ?
Concernant le premier point (celui des conditions à réunir pour justifier une interdiction). Pamuk est claire : oui, les peurs (et « anxiétés ») constituent un argument recevable pour interdire une technologie au stade de la recherche, même si la preuve du préjudice n’est pas encore scientifiquement établie. Elle rappelle ainsi que la perception du risque est subjective, liée à des facteurs psychologiques, culturels et sociaux et ne peut se réduire à une pure décision scientifique : « pour les individus, la capacité à agir en fonction de la peur est cruciale pour leur autonomie, peu importe la rationalité de la peur ». La peur, comme les désirs et les espoirs, est une expression politique, et la politique ne peut être circonscrite au domaine du rationnel. La chercheuse précise qu’interdire la poursuite de recherches car celles-ci créeraient de l’anxiété ne doit pas néanmoins pas devenir un premier recours : il convient d’évaluer le degré de peur collective à partir duquel la question mérite de devenir démocratique.
Il convient également de garder à l’esprit que la recherche scientifique obéit déjà à principes éthiques et moraux qui ne sont en aucun cas basés sur une quelconque rationalité scientifique. Il est par exemple interdit de nuire à des humains lors d’une expérimentation scientifique. Le rapport Belmont (1979) pose ainsi plusieurs principes devant être respectés par exemple lors d’un test clinique : le respect (respect de l’autonomie et du consentement des personnes), la bienfaisance (minimiser le mal et augmenter le bien-être), et la justice (ne pas exploiter des populations plus que d’autres dans le processus de recherche). Si l’on ne voit pas de problème à ce qu’un individu refuse un test clinique au nom du principe de consentement, et alors même que les preuves de nuisance ne sont pas réunies, alors pourquoi l’application de ce même principe n’existe-t-elle pas à l’échelle collective ? Comment capturer l’esprit du consentement à l’échelle d’une société ? Pour la politiste, si la détermination des risques peut et doit encore passer par la case « experts », les non-experts doivent pouvoir ensuite décider ce qu’il adviendra de leur constat, justement parce que leur perception du risque n’est pas forcément équivalente à celle des experts.
Par ailleurs, ajoute Pamuk, les principes du rapport Belmont ne sont censés être appliqués que lors des phases de recherche, et non pas pendant les étapes suivantes, où les technologies sont conçues et utilisées. Or dans le cas de la géo-ingénierie ou des armes autonomes, les risques n’interviennent pas lors des phases de recherche, mais bien lorsque ces technologies sont utilisées en situation réelle…
A la deuxième question (interdire à des scientifiques de poursuivre certaines recherches), Tamuk est là aussi, catégorique. Si l’on s’imagine souvent la quête de connaissance comme une activité qui ne serait par définition jamais nocive, il n’en est rien dans la réalité. Quand bien même on ne sait pas toujours ce qui résultera de la recherche, les finalités poursuivies par les chercheurs sont souvent limpides, notamment quand c’est le développement technologique qui motive la recherche. Dès lors, le simple fait de poursuivre la recherche scientifique dans un domaine en particulier n’est jamais neutre : cela peut contribuer à verrouiller le futur et à favoriser le déploiement de technologies pour la seule raison qu’elles auront été préalablement financées, et non pas parce qu’elles s’avèrent être les plus utiles ou efficaces.
Aussi, l’objection qui consisterait à affirmer que limiter ou interdire une ligne de recherche revient à restreindre la liberté académique ne tient pas pour Tamuk. La chercheuse rappelle que suivant cette idée, il conviendra de remonter chaîne de responsabilité jusqu’aux scientifiques lorsque le fruit de leurs recherches donne lieu à des applications nocives. Si ces derniers ne sont pas responsables de la même manière que d’autres qu’eux qui auraient décidé de faire un mauvais usage de leurs découvertes, cela ne les couvre pas pour autant complètement. Elle le répète : les scientifiques ont la responsabilité morale de penser aux répercussions de leurs travaux.
***
De toute évidence, le livre de Zeynep Tamuk offre une perspective stimulante sur les questions qui lient progrès scientifique et technique avec leurs différents modes de gouvernance. Elle prolonge ainsi tout un travail préalable autour de la démocratisation des sciences et de la « démocratie technique ». Le grand intérêt de l’ouvrage est qu’il pousse plus loin que les habituels appels aux conférences de citoyens, en tenant compte de leurs défauts. L’architecture juridique qu’elle propose avec la Cour de justice scientifique répond fidèlement à ces défauts, tout en approfondissant le rôle des citoyens dans la détermination du futur technique et scientifique.
Quelques points aveugles méritent à mon avis d’être soulevés.
Tout d’abord, l’effet du « judiciarisation » de la recherche sur la communauté scientifique est me semble-t-il, assez incertain. On peine à comprendre à partir de quand et quoi la détermination d’un risque potentiel puisse donner lieu à une remise en cause d’un travail scientifique dans son ensemble. Si les exemples proposés (géo-ingénierie, armes autonomes) sont évidents, (parce qu’ils occasionnent déjà des controverses, et parce qu’ils sont compréhensibles de tous), il en irait probablement différemment dans d’autres domaines plus opaques, voire totalement inconnus du grand public.
Ensuite, Zynep Tamuk n’accorde presque aucune considération au fait qu’une part importante de la recherche scientifique émane aujourd’hui de laboratoires privés et que ceux-ci, bien que soumis à la loi, décident selon leur bon vouloir à quoi ils allouent leurs fonds. Aussi, comment l’idée de Cour de justice scientifique s’applique-t-elle au secteur privé ? Quels effets sur la propriété privée ? Quelles réactions de la part du capital ?
Enfin, il me semble que le passage sur la subjectivité de l’appréciation des risques, et la prise en compte des peurs collectives est particulièrement intéressant, parce qu’il adresse en creux les limites des approches procédurales, mais manque de mise en pratique et d’illustrations. Tout d’abord, Tamuk ne précise pas comment évaluer une peur collective (on peut comprendre pourquoi), au risque de laisser entendre que toutes les peurs se vaudraient, et pourraient être discutées à l’intérieur de schémas démocratiques qui peinent déjà à convaincre. Ensuite, il me semble que ce qu’elle appelle « peur » peut aussi ressembler à des visions du monde, non pas seulement basées sur l’anxiété, mais reposant sur une simple quête d’alternatives à ce qui est proposé comme avenir par la plupart de ceux qui financent et déploiement des technologies (un monde ultra « technologisé » et numérisés en l’occurrence) : le préciser permettrait de se départir d’images de mouvements de foules gouvernées par leurs émotions qui elles aussi, risquent de ne pas convaincre.
Irénée Régnauld (@maisouvaleweb),
Pour lire mon livre c’est par là, et pour me soutenir, par ici.
[…] La démocratie n’a pas besoin d’une science infaillible (maisouvaleweb.fr) […]
[…] La démocratie n’a pas besoin d’une science infaillible (Mais ou va le web) […]
[…] La démocratie n’a pas besoin d’une science infaillible […]