Si la science a participé à l’allongement de la durée de vie et à une meilleure connaissance du monde, il convient de ne pas se mettre des œillères : la civilisation technologique n’est pas toute rose ! Parmi les griefs qu’on peut lui faire : un appétit insatiable pour les matières premières, une destruction relative du sens de la communauté et des catastrophes en tous genres (chimiques, nucléaires, numériques…), qui touchent avant tout les plus démunis. Pour la sociologue américaine Sheila Jasanoff (@sjasanoff), ces impacts sociaux sont trop rarement pris en compte.
Cet article a été publié originellement sur le Digital Society Forum et Internetactu.
Dans son ouvrage The Ethics of invention : Technology and the human future (L’éthique de l’invention : la technologie et l’avenir de l’homme, WW. Norton, 2016, non traduit), la professeure de Science and Technology Studies (STS) à l’école John F. Kennedy de l’université de Harvard, connue pour ses travaux sur les liens entre les sciences, la loi et les enjeux publics, dissèque quelques grandes catastrophes technologiques du vingtième siècle. Elle pointe ce qui pèche dans le déploiement de certaines technologies : le manque d’organismes démocratiques de régulation (notamment internationaux) et une conception erronée de ce que l’homme peut attendre des sciences et des techniques.
Ni les technologies ni leurs risques ne sont neutres !
Pour Jasanoff, la technologie ne se limite pas à l’électronique, aux smartphones et aux logiciels. Son étude aborde aussi bien les grandes controverses liées aux OGM que la biologie de synthèse, le séquençage ADN ou encore la conquête spatiale.
La première brique de son raisonnement commence par une révision en bonne et due forme des mythes entretenus autour de la technologie : celle-ci serait faite d’objets neutres et inanimés, dont l’évolution suivrait un processus naturel, linéaire, voire inéluctable, qui accoucherait automatiquement et systématiquement du « progrès ». Celui-ci se résumant grossièrement à une société plus sûre, pacifique, efficace, en un mot : plus souhaitable. Pour Jasanoff, il faut profondément nuancer ce propos : la technologie pénètre nos corps, nos esprits et bouleverse nos pratiques sociales. Ce faisant, elle ouvre des chemins nouveaux et inconnus, mais qui ne déterminent aucunement l’avenir à eux seuls et ne façonnent pas nécessairement un futur vertueux pour le plus grand nombre.
Au fameux « Pourquoi le futur n’a pas besoin de nous » de l’informaticien Bill Joy publié en 2000 dans le magazine américain Wired – dans lequel l’auteur postulait une technologie autonome qui laissait finalement peu de place à l’action humaine -, Jasanoff oppose le texte du théoricien politique et philosophe des techniques Langdon Winner : « Do artifacts have politics ? » (.pdf) (« Les objets ont-ils une politique ? », traduit dans La baleine et le réacteur, Descartes et Cie, 2002), où celui-ci rappelle que les objets techniques sont pétris de valeurs humaines. Un simple feu de circulation par exemple pose tout une série de questions : comment a-t-il été paramétré ? Qui a décidé du temps alloué aux voitures et aux piétons ? A-t-on pris en considération l’état physique des personnes traversant la rue ?… Autant de questions que nous nous posons trop souvent seulement après qu’un accident ait eu lieu, comme pour en évaluer alors les conséquences et les améliorations possibles. Alors même que la technologie gouverne nos pratiques, il semblerait que nous ne prenions pas le temps de l’envisager comme ce qu’elle est : une forme de loi !
Si la technologie n’est pas neutre, les risques qu’elle est susceptible de produire ne le sont pas non plus. D’abord, ceux-ci ne se diffusent pas toujours équitablement dans la population : les grandes catastrophes, comme l’explosion d’une usine chimique à Bhopal en 1984, touchent avant tout les populations les plus pauvres. De plus, toutes les populations du monde n’ont pas le luxe de pouvoir refuser une technologie ou une installation dangereuse à côté de chez elles (François Jarrige et Thomas Le Roux, dans La contamination du monde, une histoire des pollutions à l’âge industriel, Le Seuil, 2017, soulignaient très bien combien les luttes contre les installations dangereuses relèvent d’un conflit social et politique, et combien le risque de pollution ou de catastrophe demeure très inégalement distribué, au détriment toujours des plus pauvres). Enfin, rappelle la chercheuse, le risque s’arrête trop souvent à ce qui est mesurable scientifiquement. Sont oubliées toutes les choses qui n’entrent pas dans les calculs : les effets systémiques du manque de compréhension des conditions d’utilisation des technologies qui font qu’on ne pense pas la machine pour son usage (par exemple, un conducteur de train qui pianote son téléphone, comme le fit Martin Sanchez à Los Angeles en 2008, tuant 24 personnes dans un accident). Les modes d’appropriation d’une technologie peuvent également produire de mauvaises surprises, quand par exemple les notices de prévention de nombreux pesticides écrites en anglais sont incompréhensibles aux fermiers non anglophones ou analphabètes auxquels ces produits sont également vendus !
Image : L’incendie de l’usine Lubrizol à Rouen, le 26 septembre. Photo de Sébastien Bailly.
Ce qui produit des catastrophes : le manque de prise en compte des savoirs non experts et l’asymétrie de pouvoir !
Selon Jasanoff, l’étude des catastrophes technologiques nous enseigne que c’est souvent le manque de prise en compte des savoirs non experts qui produit des accidents. Car, rappelle-t-elle, la connaissance s’inscrit toujours dans des rapports de pouvoir, qui tendent justement à invisibiliser ces savoirs. De simples briquets par exemple, ont tué des milliers de personnes dans le monde au cours des années 1980 et 1990, dans le silence le plus total. Ce n’est que lorsque des victimes se sont mises à s’organiser pour attaquer en justice les fabricants que les choses commencèrent à évoluer. Devant la contestation et la multiplication des plaintes, l’industrie fut forcée d’adopter des standards plus stricts tenant compte des accidents passés. Un des grands défis aujourd’hui consiste, selon Jasanoff, à faire dialoguer experts et profanes lors de la conception et du déploiement d’objets et d’infrastructures techniques. Pour y arriver, explique-t-elle, nous devrions nous départir d’un mode de pensée qui place l’expert au-dessus du citoyen lambda, ignorant au passage son expérience et sa capacité à pointer les défauts ou les manquements d’une technologie qui le concerne au premier plan. Bien sûr, il ne s’agit pas de demander au premier quidam de valider la diffusion d’un nouveau médicament sur le marché, cependant, croire que la vie moderne est trop compliquée pour être appréhendée par le citoyen ordinaire – relent d’un saint-simonisme tenace – laisse la chercheuse sceptique.
Les deux autres catastrophes qui viennent illustrer les effets pervers des asymétries de pouvoir dans le champ scientifique sont les explosions des navettes spatiales américaines Challenger en 1986 et Columbia en 2003. Ces deux désastres furent longuement étudiés, et comme le rappelle Jasanoff, de nombreux ingénieurs étaient parfaitement informés des avaries, bien avant les accidents. Dans les deux cas, ils avaient prévenu que les choses pouvaient mal tourner, mais ils ne furent pas écoutés. Roger Boisjoly, par exemple, un ingénieur travaillant pour Morton Thiokol, un fournisseur de la navette Challenger, s’était opposé au lancement par un temps si froid — un facteur supplémentaire qui contribua à l’explosion.
Il est possible d’en tirer au moins deux enseignements.
D’une part, la simple connaissance d’un problème ne suffit pas à le résoudre : encore faut-il que les personnes qui le signalent pèsent suffisamment dans le processus de production. Le savoir n’est rien s’il n’est pas accompagné par un rapport de force favorable.
D’autre part et contrairement à ce qui est souvent avancé, les accidents ne sont pas que le fruit du hasard (des « conséquences inattendues », une formulation que récuse la chercheuse), mais le résultat de choix ou de non-choix bien humains. Seulement, ces choix sont plus ou moins volontairement masqués, ce qui tend à invisibiliser les sources et les effets des menaces. C’est l’« irresponsabilité organisée » que le sociologue Ulrich Beck décrivait dans La société du risque(1986). Conséquence : dans certains cas, ces événements « de faible probabilité mais dont les conséquences sont extrêmes » finissent par tuer des gens qui n’ont pas eu grand-chose à dire dans la chaîne de production qui a scellé leur destin.
Citoyens et usagers : victimes non consentantes, mais sans moyens d’action
La catastrophe de Bhopal évoquée plus haut est un exemple tragique qui illustre la non prise en compte des habitants dans l’élaboration d’infrastructures techniques. Cette catastrophe fut la conséquence de l’explosion d’une usine d’une filiale de la firme américaine Union Carbide qui produisait des pesticides et qui dégagea 40 tonnes d’isocyanate de méthyle dans l’atmosphère de la ville. 3500 personnes moururent dans leur sommeil la nuit de l’explosion (et plus de 20 000 des conséquences de l’explosion selon les associations de malades). Des dizaines de milliers de personnes furent handicapées à vie. Non seulement les habitants de cette ville n’eurent jamais l’opportunité de s’exprimer lors du processus de construction des infrastructures techniques, mais leurs voix furent à peine audibles lors du procès qui succéda au désastre. En effet, après quelques tribulations politiques, celui-ci se déroula en Inde et non aux Etats-Unis, où le système d’actions de groupe aurait pu permettre de faire pression sur l’entreprise. Des trois milliards de dollars de dédommagements qui furent demandés par l’Etat indien, les Etats-Unis n’en donnèrent qu’un petit 15 %, bien insuffisant pour compenser les pertes humaines et autres conséquences d’une explosion qui aura concerné plus ou moins directement des centaines de milliers de personnes. L’histoire de Bhopal, comme celle de l’immeuble Rana Plaza, qui s’effondra le 24 avril 2013, emportant avec lui 1127 personnes, montre à quel point les victimes de la société du risque sont bien souvent les plus vulnérables. A cela s’ajoute les asymétries juridiques entre nations, qui font que certains sont mieux protégés que d’autres, ce qu’ont bien compris les entreprises adeptes du dumping social, éthique et juridique.
Le manque d’attention porté aux questions citoyennes ne se limite pas aux choix d’infrastructures lourdes : il est présent dans toutes formes d’innovation. Il en va de même dans le monde des biotechnologies et notamment du séquençage ADN. En 2004, un adolescent conçu à partir d’un échantillon de sperme décida d’en savoir plus sur ses origines. Il envoya à un organisme spécialisé un échantillon de son propre ADN et reçut neuf mois plus tard, pour 289 dollars, des informations sur deux profils désignés comme ses proches parents. En recoupant ces données avec les informations qu’il avait déjà sur son père, notamment sa ville de naissance, il parvient à retrouver l’identité du donneur qui n’avait pourtant jamais consenti à ce qu’on le retrouve, ni même accepté de figurer dans aucune base de données.
Et le numérique n’est pas en reste, Jasanoff nous remet en mémoire cette expérience qu’avait conduit Facebook en 2012auprès de 700 000 de ses utilisateurs. En modifiant le contenu affiché sur le fil d’actualité des utilisateurs, la société avait déclaré être en mesure d’altérer le tempérament de ses clients. Ceux qui voyaient plus de contenus positifs avaient tendance à produire eux-mêmes plus de contenus positifs, et ceux qui recevaient plus de contenus négatifs faisaient l’inverse. A aucun moment les sujets de l’expérience n’eurent conscience de participer à cette « étude » grandeur nature. Alors qu’une page Wikipédia recense toutes les critiques faites à Facebook, Jasanoff nous rappelle que les Etats-Unis manquent cruellement d’institutions à même de collecter, de surveiller et plus encore d’encadrer ces pratiques.
Réguler, encadrer, concerter : comment faire entrer la démocratie dans la technologie ?
Devant la multiplication et la complexification de ces phénomènes touchant à diverses technologies et sphères de la vie sociale, l’évaluation et la régulation des technologies s’avère une tâche difficile. Jasanoff constate une recrudescence des comités d’éthique, tout en regrettant leur manque d’indépendance et leur tendance à ne pas déranger le « business as usual ». Chez Google par exemple, le comité d’éthique sur l’intelligence artificielle fut l’objet de vives critiques venant de l’intérieur, tant et si bien qu’il a explosé en vol !.
Pour la chercheuse, la prolifération de ces instances au fonctionnement plus opaque que transparent, a en partie supplanté l’idéal démocratique, au profit d’une vision technocratique soumise aux injonctions de l’industrie. Bien sûr, des organes de régulation existent, notamment sur les questions sanitaires. Cependant, à en croire Jasanoff, rien ne vient aujourd’hui prendre la place de ce que fut par exemple l’Office of Technology Assessment (OTA, bureau de l’évaluation des technologies), organisme créé en 1972 aux Etats-Unis et qui produisit plusieurs centaines de rapports de grande qualité. Sa mission consistait à éclairer le Congrès d’analyses les plus objectives possibles, et, dans la mesure du possible, « comprendre et anticiper les conséquences des technologies, afin notamment de les déployer en cohérence avec les politiques publiques et les problèmes de la nation ». L’OTA fut cependant en proie à des luttes partisanes qui signèrent rapidement son arrêt de mort. En cause notamment, un rapport publié pendant l’ère Reagan et très critique envers l’initiative « Star Wars », un projet de défense anti-missile destiné à la protection des Etats-Unis contre une éventuelle frappe nucléaire, et estimé à plus de 20 milliards de dollars. En 2016, le magazine Wired regrettait l’existence de l’OTA qui à son acmé, bénéficiait d’un budget de 20 millions de dollars…
A l’heure où les questions de vie privée ré-émergent dans un contexte numérique florissant, l’OTA pourrait, selon Jasanoff, trouver une utilité, alors même que le vieux continent semble avoir pris la tête du combat éthique en matière numérique. En 2015, un amendement fut porté par un sénateur pour doter l’OTA d’un budget de 2,5 millions de dollars, en vain.
D’autres modes d’organisation du débat public sont évoqués par la chercheuse. Notamment les conférences citoyennes, telle que le « GM Nation ? » : un large débat sur les OGM mené au Royaume-Uni en 2003. Plus de 600 rencontres citoyennes eurent lieu, à l’initiative de l’Agricultural and Environment Biotechnology Commission (AEBC). Le verdict fut plutôt clair : 95 % des personnes consultées s’inquiétèrent de la contamination par les OGM d’autres plantes. Seulement 2 % y furent réellement favorables. La plupart des participants pointèrent le manque d’indépendance des experts et montrèrent des doutes quant à l’efficacité de cultures OGM. Ce modèle de discussion ne fut pas poursuivi ni réitéré, les défenseurs des biotechnologies accusant le forum de rassembler trop de forces anti-technologiques, les opposants critiquant le gouvernement qui selon eux n’aurait jamais réellement souhaité tenir compte des avis prononcés. A l’heure où la France ouvre une large consultation autour du climat, qui mobilise 150 citoyens tirés au sort, ce constat devrait nous interroger : quelles garanties pouvons-nous donner aux recommandations citoyennes ? Peuvent-elles seulement aboutir, dans la mesure où elles pourraient aller à l’encontre de politiques décidées par un gouvernement en place ?…
L’ouvrage de Sheila Jasanoff ne s’encombre pas de faux espoirs, son constat est plutôt sans appel : le dialogue et la concertation ne parviennent pas ou si peu, à inverser la logique libérale des marchés. Lorsque des initiatives institutionnelles émergent pour démocratiser des choix technologiques, elles se heurtent à des agendas politiques qui les freinent, ou sont organisées dans le seul but de générer de l’acceptabilité. Ce sont des « espaces d’expression sans conséquence », pour reprendre la formule de la sociologue Sara Aguiton, qui livrait les mêmes conclusions dans son ouvrage La démocratie des chimères, gouverner la biologie synthétique. La participation démocratique au choix du progrès reste pourtant un sujet qui revient très souvent en sociologie des sciences et les conclusions de Jasanoff, comme les travaux de Michel Callon sur la « démocratie technique », ravivent d’anciennes conclusions sur la marche du progrès.
L’une d’entre elles atteste du fait que rien ne se fait naturellement en matière technologique : quand ce ne sont pas les accidents et autres catastrophes qui dévoilent les terribles asymétries informationnelles dans les choix technologiques, ce sont des populations qui se mobilisent, qui contestent et influent sur le cours des choses. L’autre enseignement est que le flétrissement progressif des formes du débat finit toujours par avoir des répercussions, soit via de nouveaux accidents, soit sous forme de nouvelles contestations. Celles-ci demeurent d’ailleurs très vives et dans tous les domaines. Du point de vue énergétique par exemple, avec les zadistes et autres opposants aux « grands projets inutiles », ou encore chez les habitants de Bure, où Cigeo souhaite enterrer les déchets nucléaires français. En matière numérique, la contestation est également partout, du « Techlash » américain qui commence à remettre en cause le pouvoir des GAFA, aux protestations locales, comme à Toronto, contre un projet de Smart-City impulsé par Google.
Dans un environnement technologique qui se complexifie, il convient donc d’interroger à la fois les conditions de production des technologies, et les formes du débat qui devraient permettre de réaliser de véritables allers-retours entre l’industrie et le citoyen — sans quoi les foyers de contestation risquent, encore et encore, de se multiplier.
Irénée Régnauld (@maisouvaleweb), pour lire mon livre c’est par là, et pour me soutenir, par ici.
[…] Ce que les catastrophes technologiques disent de la technologie […]
[…] Les catastrophes technologiques sont un angle passionnant pour analyser et critiquer les conditions de production des technologies. C’est pour ça qu’il faut lire The Ethics of invention : Technology and the human future (2016), de Sheila Jasanoff. Elle y explique que les accidents sont souvent liés à des asymétries de pouvoir entre ceux qui imposent les technologies et ceux qui les subissent. Par ici. […]
[…] technologique n’avait jamais eu lieu, et comme si l’on n’avait pas déjà identifié les raisons exactes pour lesquelles ces catastrophes surviennent. Le petit essai de Bostrom et van der Merwe […]