A la faveur du rachat de Twitter par Elon Musk une information revient ici et là : le milliardaire serait adepte de l’idéologie « long-termiste » (« long termism » en anglais), qui pourrait parmi bien d’autres choses, expliquer sa passion soudaine pour le réseau social. Sans entrer dans des spéculations à ce propos, il m’a semblé intéressant de revenir sur les fondamentaux de ce courant de pensée que Musk est loin d’être le seul à partager. Le long-termisme, nous dit Phil Torres, doctorant en philosophie à la Leibniz Universität Hannover en Allemagne, dans Aeon, consiste à baser ses décisions sur une vision du très long terme (centaines, milliers, millions d’années) avec en ligne de mire un « potentiel » que l’humanité devrait déployer par l’usage intensif de technologies, jusqu’à la colonisation de l’espace. Les problèmes du présent, eux, se retrouvent dès lors soumis à cet horizon, et leur résolution est sacrifiée sur l’autel du long-terme.
Aux racines du long-termisme
S’il faut constater que l’actualité est souvent chargée de prédictions catastrophiques, celles-ci n’ont rien de réellement nouveau. On appelle « apocalypticisme » les mouvements eschatologiques qui étudient la fin des temps tout en s’imaginant que celle-ci est proche. Bien sûr, s’imaginer la fin du monde aujourd’hui est souvent plus rigoureux scientifiquement qu’il y a mille ou dix mille ans. Des pandémies mondiales au dérèglement climatique en passant par le risque de guerre nucléaire, la réalité du monde d’aujourd’hui a fait et fait encore dire à des gens aussi divers que Stephen Hawking et Noam Chomsky que nous vivions la période la plus dangereuse que l’humanité ait jamais connue. Entre autres joyeusetés, l’horloge de l’apocalypse se rapproche de minuit (la fin du monde) plus que jamais, et pas une semaine ne passe sans qu’une tribune signée par des scientifiques n’alerte sur les limites planétaires (ici, ou là, ou encore là).
Malgré la spectre omniprésent de la fin du monde à travers les temps, Phil Torres affirme que la philosophie s’est relativement peu penchée sur les caractéristiques morales d’une potentielle disparition totale des êtres humains : serait-elle en tous termes condamnable ? Pour quelles raisons ? Peu de considération philosophique donc, à l’exception d’un mouvement qui depuis vingt ans, grandit en influence. Un petit groupe de théoriciens issus d’Oxford, les long-termistes, envisagent les effets des actions humaines sur des échelles de temps considérables en se basant notamment sur les travaux de Nick Beckstead et du philosophe Nick Bostrom, également fondateur du Future of Humanity Institute (FHI). Le long-termisme a également été défendu par le philosophe Toby Ord, dans son livre The Precipice: Existential Risk and the Future of Humanity (2020). Sans entrer dans les détails et acronymes des différentes organisations impliquées dans ce courant, retenons du papier de Phil Torres que le long-termisme est une branche d’un mouvement plus vaste nommé « effective altruism » et qui bénéficie de financements importants, de l’ordre 46 milliards de dollars. Elon Musk lui-même, grand admirateur de Nick Bostrom, aurait versé 1,5 million de dollars au Future of Life Institute (organisation « soeur » du FHI), et Trump de larges sommes d’argent au « Machine Intelligence Research Institute », organisation long-termisme officiant dans la protection contre les futures machines superintelligentes (dont certains pensent qu’elles pourraient signer la fin de l’humanité).
Phil Torres n’y va pas de main morte : « j’ai fini par penser que le long-termisme était fort probablement le système de pensée séculier contemporain le plus dangereux au monde ». Un système qu’il ausculte en détails afin que nous en saisissions toutes les prémisses et les dangers.
Du grand potentiel de l’humanité
Contrairement à ce que l’on serait en droit de s’imaginer intuitivement, le long-termisme ne consiste pas à « prendre soin du long terme ». Un principe premier est en réalité que tout humain possède un potentiel à accomplir, au service de l’humanité toute entière. C’est ce potentiel qu’il convient de préserver et de déployer, quoi qu’il en coûte.
Aussi, du point du vue long-termisme, la mort prématurée d’un·e futur·e grand·e savant·e est une tragédie d’abord parce que c’est un potentiel perdu. Les souffrances que l’intéressé·e aura pu subir lors de son décès sont secondaire. Les long-termistes filent l’argument plus loin encore, en appliquant ses conclusions à l’humanité pensée comme un seul corps. Ainsi, la disparition de l’humanité sous le feu nucléaire serait tragique avant tout parce qu’elle réduirait à néant ses chances d’accomplir son potentiel et sa destinée : se propager dans le cosmos et prospérer pour les siècles des siècles. Dans le vocabulaire de Toby Ord, un tel événement – qu’il nomme « risque existentiel » – détruirait le « vaste et glorieux potentiel de l’humanité », à tel point que la tragédie en elle-même (la guerre nucléaire totale) serait en soi moins à déplorer que ce qu’elle provoquerait : une occasion ratée.
Torres nous donne un autre détail qui a son importance : la mort n’est pas la seule manière de ne pas accomplir son potentiel. Un·e futur·e grand·e savant·e qui devient un pilier de bar, par exemple, le gâche tout autant. Dans cette perspective, toutes les vies ne se valent pas, et comme l’écrivit Nick Beckstead dans sa thèse de Doctorat de 2013 : « sauver une vie dans un pays riche est substantiellement plus important que sauver une vie dans un pays pauvre, toute choses égales par ailleurs ». Derrière cette affirmation, une logique de glace : les pays riches innovent plus que les pays pauvres, et seraient donc plus utile à l’accomplissement du potentiel de l’humanité.
Si aux yeux des long-termistes, l’humanité dispose en soi d’un potentiel à accomplir, et qui transcende le potentiel de chaque individu, tout ce qui nous en éloigne est une faute morale. C’est bien cette croyance qui fonde leur dogme et qui le rend dangereux : tout événement, aussi tragique soit-il, qui n’impacte réellement les chances de l’humanité à très, très long terme, est dérisoire. Jusqu’à la catastrophe climatique, qui de ce point de vue et si l’on prend beaucoup, beaucoup de hauteur, compterait autant qu’un « vieillard de 90 ans qui se serait cogné le gros orteil à deux ans ».
Dit autrement, du moment que l’humanité survit, alors il n’y a pas de quoi s’inquiéter. Les désastres naturels, les guerres et les maladies, ou encore les effets du dérèglement climatique ici et maintenant – et particulièrement dans les pays du sud – ne sont à considérer que dans la mesure où ils anéantiraient ou non le potentiel de l’humanité à long terme. Pour Toby Ord, le seul véritable problème auquel l’humanité fait face est qu’elle doit trouver quelque part dans l’univers un lieu sûr pour protéger et préserver son potentiel. Musk confirme, quand il déclare (sur Twitter !) que « nous devrions être beaucoup plus préoccupés par l’effondrement de la population » que par la surpopulation. Pourquoi ? Parce que « s’il n’y a pas assez de gens pour peupler la Terre, il n’y en aura certainement pas assez pour Mars ».
Phil Torres s’inquiète : si le point de vue long-termiste indexe le « plus grand bien » non pas sur des objectifs comme la sûreté des êtres humains vivant aujourd’hui sur cette Terre, mais sur le potentiel de leur descendance sur une échelle de temps s’étalant sur des milliards ou des trillions d’années, alors tout moyen permettant d’atteindre cette fin sera justifié. Que coûtent alors la protection et la préservation de ce potentiel ? Il faut pour percevoir le poids de cette question en repasser par qui est le personnage de Nick Bostrom, et ce qu’il a pu écrire dans le passé. Dans un précédent texte discuté et critiqué ici-même, l’intéressé n’hésitait pas à proposer d’établir une surveillance préventive de toute l’humanité afin d’éviter les attaques ou accidents rendus possible par l’usage de nouvelles technologies (exemple : un terroriste qui fabriquerait dans son garage une bombe nucléaire « sale »). Comme je l’interprétais à l’époque : « c’est le scénario du pire, toujours utile pour rendre moral et acceptable l’injustifiable, ici en l’occurrence la réduction préventive – paranoïaque – de libertés pour se prémunir de phénomènes improbables. ». L’esprit est resté le même : pour sauver le futur, il faut sacrifier le présent.
Le long-termisme et ses idéologies voisines
La définition du potentiel à long-terme de l’humanité mérite à ce stade d’être posée. Pour le doctorant en philosophie, elle s’inscrit dans plusieurs mouvements culturels et projets technologiques : le transhumanisme, l’expansionnisme spatial, et ce qui pourrait se rapprocher en philosophie d’un utilitarisme total.
Le mouvement transhumanisme défend l’idée qu’il faudrait améliorer l’humain par le truchement de technologies et procédés chimiques plus ou moins invasifs. Cette amélioration vaudrait tant pour son corps que sa moralité. Si le mouvement transhumaniste, dont Bostrom est une des têtes pensantes, a quelque peu souffert ces dernières années du fait des nombreuses critiques qui lui ont été faites, il n’en produit pas moins et par voies détournées, des effets dans la société. Comme l’expliquait le sociologue Nicolas le Dévedec ici-même, ce mouvement est un avatar du néolibéralisme sous stéroïdes, quand bien même il tente maladroitement de s’en cacher en s’auto-désignant maladroitement progressiste. L’idée reste d’améliorer l’humain ou plutôt, de l’adapter physiquement et émotionnellement à un monde économisé et mécanisé qu’il ne conviendrait en aucun cas de critiquer sur le terrain des rapports de domination. Pour Bostrom, rater la transition vers le « posthumain » (l’homme transhumain) serait une catastrophe existentielle.
L’expansionnisme spatial de son côté, postule que l’humanité devrait coloniser la région de l’espace qui lui est physiquement accessible. Pour les long-termistes, cette région couvre déjà une quantité astronomique de corps célestes, offrant des ressources quasi-illimitées en vue de bâtir une société florissante. Dans son ouvrage Dark skies (sous-titré : space expansionism, planetary geopolitics & the end of humanity) et chroniqué il y a peu ici-même, Daniel Deudney en faisait une critique ardue. Pour lui, l’expansionnisme spatial ne ferait finalement « qu’extrapoler et amplifier le mythe prométhéen et ses promesses technologiques à l’échelle du Cosmos ». L’usage actuel de l’espace, défendait-il, risque surtout d’accroître la violence, les velléités de colonisation et de domination du Cosmos ne pouvant conduire qu’à y transposer les conflits existants, tout en améliorant les capacités techniques dont l’humanité pourrait disposer afin d’assurer sa propre destruction – au premier rang desquelles les missiles balistiques intercontinentaux capables de porter des têtes nucléaires à des vitesses supersoniques d’un bout à l’autre du globe en passant par l’espace. Deudnay avait aussi le grand mérite dans son ouvrage de pulvériser tous les arguments expansionnistes basés sur la finitude de la planète Terre (exemple : vite construire des bases spatiales pour échapper à « l’explosion » du soleil dans cinq milliards d’années), car si te tels scénarios sont théoriquement valables, ils nous mènent à des échelles de temps trop lointaines pour avoir une quelconque importance aujourd’hui : un minimum de respect pour la physique dément donc l’urgence de ces projets.
Pourquoi et au nom de quoi devrions-nous envahir le cosmos, demande Phil Torres ? Ce qui le conduit au troisième pilier des long-termistes : l’utilitarisme. La doctrine utilitariste préconise d’agir en vue de maximiser le bien être collectif, entendu comme la somme de bien être commune à tous les êtres concernés par l’action en question. Torres illustre : pour les utilitaristes, si 1 trillion de personnes valent « 1 » du point de vue du bien être collectif, alors celui-ci sera de 1 trillion. Dans un second scénario, si 1 milliard de personnes valent 999 (ce qui signifierait que leur vie est très bonne), alors le total ne serait que de 999 milliards et donc moins souhaitable du point de vue utilitariste. Suivant ce calcul, les êtres ne sont que des contenants et n’ont pas de valeur en soi : c’est pourquoi les long-termistes sont obsédés par la démographie et le fait que l’humanité puisse se déployer par milliards et trilliards d’individus dans des univers, virtuels ou réels (rappelez-vous : Jeff Bezos veut envoyer 1 000 milliards d’humains dans des colonies spatiales).
Arraisonnement et neutralité de la technique
Qu’implique d’autre le concept de potentiel à long-terme ? Une maîtrise pleine et entière des technologies dans le but d’arriver à un seuil de « maturité » permettant des niveaux de productivité économique et de contrôle sur la nature « proches du maximum pouvant être atteint » (physiquement), explique Nick Bostrom. A revers, échouer dans cette entreprise de développement desdites technologies constituerait en soi une catastrophe existentielle. On retrouve là tous les ingrédients philosophique et idéologiques ayant conduit à la décimation d’environnements naturels à travers une forme d’arraisonnement, au sens heideggérien du terme, de celle-ci. Arraisonnement qui concerne d’ailleurs aussi l’humain lui-même, sommé comme le reste de fournir au long terme ce que son horizon lui réclame. En totale conformité avec cette idée, les long-termistes s’imaginent que l’ensemble de ce qui est « donné », l’univers tout entier, n’a de réalité qu’en ce qu’il est un objet manipulable et disponible pour l’usure : pillable, transformable, etc.
Plus affolant encore, cette course à la technologie produit on le sait un certain nombre de risques que Ord et Bostrom eux-mêmes ne semblent pas complètement ignorer, ce dernier l’ayant parfaitement théorisé dans l’article précédemment cité, à propos des bombes nucléaires artisanales. Aussi, notre pouvoir sur la nature et nous-même augmenterait de concert avec les dangers que ce même pouvoir fait peser sur l’humanité toute entière. Mais voilà, c’est bien là la seule chance d’accomplir la destinée et le potentiel de l’humanité. « Est-ce vraiment censé ? » demande Torres : « si plus de technologie rime avec plus de risques, et l’histoire le montre, alors peut-être que la seule manière d’atteindre un état de sûreté face à des risques existentiels consisterait à ralentir, voire à mettre en pause toute innovation technologique ». Un argument auquel les long-termistes répondent avec un affirmation classique, celle des vendeurs d’armes : la neutralité de la technique. Cette dernière ne serait ni bonne ni mauvaise, juste soumise à l’usage que nous en ferions. Bostrom, Ord, et Carl Sagan avant eux, usèrent de cette pirouette en déclarant que la technologie n’est jamais le problème, et que les humains sont seuls responsables des risques qu’elle pourrait faire peser sur eux. Il leur reviendrait donc de s’améliorer éthiquement et moralement de façon à limiter les catastrophes – et les technologies (transhumanistes) pourraient justement être utilisées à cette fin.
C’est sur le caractère autodestructeur que termine Torres : « Cette emphase fanatique sur l’accomplissement de notre potentiel à long terme ne fait pas que négliger les problèmes climatiques, prioriser les riches sur les pauvres et même justifier des violences préventives en défense du plus grand bien, mais elle obéit fidèlement aux tendances baconiennes, capitalistes et à la neutralité de la technique, qui ont précipité l’humanité si proche de la destruction ». Le long-termisme souhaite tout optimiser, de la productivité au contrôle de la nature, quitte à faire émerger les pires risques technologiques pour nous tous. Mais la technologie n’y étant pour rien, il nous revient de nous améliorer pour apprendre à mieux l’utiliser. « Cela ressemble à la recette du désastre », conclut Phil Torres. Le fait crucial que les long-termistes ratent, c’est que la technologie signera probablement notre perte avant d’être en mesure de nous sauver de la catastrophe !
Source de l’image : Gallica
[…] Le « long-termisme », ou comment sacrifier le présent pour sauver le futur (maisouvaleweb.fr) […]
Ah oui, l’article de Torres. Pour ceux que ça intéresse, il y avait eu une réponse assez fouillée là dessus : https://forum.effectivealtruism.org/posts/kageSSDLSMpuwkPKK/response-to-recent-criticisms-of-longtermism-1#Conclusion
La conclusion résume bien : « Torres opens his Aeon piece [cité dans cet article] by listing risks like pandemics, nuclear war, nanotechnology, geoengineering, and artificial intelligence. He believes that fears about extinction are based on “robust scientific conclusions.” He seems to think extinction would be very bad and he believes “you should care about the long term.” But he claims, vehemently, that he is not a longtermist. I would argue that Torres is a longtermist. He pays attention to the value of the future and he connects reaching it to overcoming certain large-scale risks. That being said, I don’t care what Torres calls himself. Longtermism is not an identity and certainly not an ideology — it is a shared project animated by concern for the long-run future, which can and should contain many conflicting viewpoints. What is important is that we work to set the world on a positive trajectory, and work to reduce existential risks, both to protect the present generation from harm and to ensure that there will be future generations living worthwhile lives. »
En clair il y a des raisonnements moraux bizarres mais la plupart des personnes qui sont dedans sont plus en mode « comment on empêche les grosses catastrophes sur lesquelles peu de monde travaille », type Intelligence Artificielle. Là, ça se justifie : comme les personnes de ce mouvement n’ont clairement pas le pouvoir de décider si on continue l’innovation technologique ou non (Google ou Facebook n’écoutent certainement pas), ils font de leur mieux pour réduire les risques associés à l’IA. Ca me semble pas illogique. Toby Ord lui-même estime dans son livre que l’humanité à une chance sur 6 d’extinction à la fin du siècle – ce qui est gigantesque et très effrayant. Ca ne m’étonne pas qu’il veuille bosser dessus. Comme il n’a pas le pouvoir de stopper la recherche technologique (toutes les tentatives pour faire ça ont échoué), et que la civilisation industrielle a l’air partie pour durer sauf imprévu (rappel: ils ont pas les collapsologues aux US), eh bien il essaie de limiter les risques.
Mais ça peut aller parfois assez loin dans le discours que certains tiennent, il y a clairement des propos avec lesquels je ne suis pas d’accord, et la section du « potentiel de ‘humanité » est assez floue – un des critères qui me gène plus c’est de juger à quel point la catastrophe empêche « reconstruire la civilisation ». Mais là encore, si on estime que la civilisation va durer .
Personnellement, je suis en train de faire un article à destination de personnes de ce mouvement sur les limites de la croissance, pour indiquer qu’on aura clairement pas assez d’énergie pour que des calculs sur le millénaire soient valides.
[…] Dans un registre un peu différent, on retrouve ces mêmes fausses inquiétudes chez les long-termistes, ces hurluberlus qui s’inquiètent de la mort du soleil mais dont on pressent qu’aucun dans sa […]
[…] cesse dans le miroir médiatique couplé à la coco rend irascible…) et intelligence dite “long-termiste” qui revient en fait à imposer une vision millénariste qui va jusqu’à envisager de voiler […]
[…] sans cesse dans le miroir médiatique couplé à la coco rend irascible…) et intelligence dite “long-termiste” qui revient en fait à imposer une vision millénariste qui va jusqu’à envisager de voiler le […]
[…] Musk plébiscite quant à lui le long-termisme, un courant adjacent de l’EA qui réfléchit au salut de l’humanité dans un futur pouvant […]
[…] Musk plébiscite quant à lui le long-termisme, un courant adjoining de l’EA qui réfléchit au salut de l’humanité dans un futur pouvant […]
Une organisation philanthropique menée par un magnat des crypto annonce qu’elle distribuera de 100 millions à 1 milliard de $ à des projets améliorant les chances de survie à « long terme » de l’humanité
On ne parle pas de climat ici, ni de réduire la faim dans le monde, mais de « gouvernance spatiale », de « lutter contre une IA incontrôlable »
Les long-termistes préfèrent spéculer sur des « X-risks » que de s’employer à réellement améliorer la vie sur Terre
#Longtermism
https://www.theguardian.com/technology/2022/nov/20/sam-bankman-fried-longtermism-effective-altruism-future-fund
[…] une organisation longtermiste, dont les fondements sont problématiques, comme nous le rappelait un article de Mais où va le web. Ce mouvement plaide pour un solutionnisme technologique au bénéfice d’une seule […]
[…] long-termisme4 s’est frayé un chemin plus récemment dans nos compréhensions des courants de pensées […]
[…] risques « existentiels » à long terme. Vision « long-termiste » dont j’avais longuement rendu compte l’année dernière, et qui nous détourne des risques bien présents posés par les IA : […]