To be or not to be Transhumaniste ? 2/2: Revenons sur Terre

Finitude et Transcendance, le débat de la robotique

Cet article fait suite à un premier billet publié précédemment sur maisouvaleweb.fr. Le sujet du transhumanisme, c’est à dire de l’augmentation humaine par la technique et la biologie est hautement controversé, à ce titre nous avons déjà pu voir comment Ray Kurzweil, parrain – ou souvent cité comme tel – de cette idéologie, pouvait à travers ses écrits bousculer les frontières éthiques contemporaines en introduisant des concepts nouveaux et parfois effrayants : l’immortalité du corps, de l’âme, jusqu’à la fusion totale de l’homme avec la machine.  Pour autant, il existe de nombreux détracteurs qui méritent d’être entendus et ajoutés à la refléxion, c’est ce qui sera développé dans cette deuxième partie.

Quelles critiques face au Transhumanisme?

Le Transhumanisme souffre d’autant de critiques que de champs disciplinaires qu’il recouvre : sociologie, science politique, bioéthique, économie… Chacun soulevant un certain nombre de questions que nous allons éluder ici à la lumière des écrits de certains intellectuels ou entrepreneurs tels que Francis Fukuyama, Noam Chomsky, Jeremy Rifkin ou encore Bill Joy.

De l’anti-technologisme comme argument suffisant : les Luddites

Le Luddisme est un mouvement anti-machine qui tire son origine des conflits entre les artisans et l’Angleterre industrielle ultra-outillée du XIXème siècle. Les Luddites sont les victimes d’un « conflit industriel violent » et économiquement destructeur ; le début du Laissez-faire. On dit que le mouvement aurait vu le jour à l’initiative d’un ouvrier nommé Ludd qui aurait entraîné ses comparses à casser des machines, froides responsables de leur remplacement progressif. On retrouvera ce grand mouvement parfaitement représenté dans la série Real Humans, et mettant en scène un prolétariat moderne perdant ses emplois, des plus mécaniques aux plus conceptuels, puis prenant les armes, posant des bombes. Ceux-là iront jusqu’à afficher des pancartes « No Robots » sur le parvis de leurs maisons. 

Si le mouvement Luddiste est propre à une période de l’histoire, il reste une des pierres fondatrices des pensées critiques actuelles. Néanmoins, le mouvement n’existe plus en tant qu’organe militant, l’époque n’étant pas tant à la déconstruction des modes de production qu’à la recherche de relais de croissance pour maintenir l’emploi dans les sociétés post-industrielles. Le débat économique autour de la robotisation est clé et met en relief ce qu’on pourrait qualifier d' »attaque » de la technologique sur la totalité de la pyramide de Maslow : de la conservation d’un emploi pour survivre à la perte de dignité issue du remplacement de l’homme par des bouts de métaux dans ses activités productives les plus élémentaires.

Le Luddisme est donc une clé d’entrée pour comprendre les mouvements anti-technologiques dans leur ensemble, mais voyons comment aller plus loin dans la remise en cause des fondamentaux sociologiques du Transhumanisme.

L’humain amélioré face à l’humain de base, une nouvelle forme de violence symbolique

La violence symbolique, c’est l’art d’être jeté d’une conversation huppée par manque de culture. En somme, vous n’êtes pas au niveau de l’auditoire, baissez la tête. Bourdieu insuffle ce concept pour justifier une partie de l’hérédité de classe dans nos sociétés.

Le concept peut être appliqué à l’amélioration physique et mentale de tout un chacun. Déjà, à l’heure actuelle, vous êtes relégué au rang des « passéistes » quand vous n’êtes pas sur les bons réseaux ou détenteur des dernières technologies. Dans le petit monde de la high-tech, il est même conseillé d’être précurseur pour être crédible

Francis Fukuyama saisit la question dans son ouvrage La fin de l’homme et pose à mon sens les bases d’un questionnement philosophique sur les biotechnologies. Il a l’avantage de répondre à Kurzweil en citant les mêmes philosophes que ce dernier (ça marche dans les deux sens…).

Ainsi, à l’âme humaine technicisée décrite par Kurzweil, Fukuyama rétorque à coup de Nietzche :

« Qu’est-ce que le singe pour l’homme ? Un objet de dérision ou une honte douloureuse ? Et c’est exactement cela que l’homme doit être pour le surhomme, un objet de dérision ou une honte douloureuse ».

L’humain amélioré de demain est le cauchemar du laissé pour compte : il est plus intelligent et vit plus longtemps. Le Transhumanisme comme idéologie ne règle pas la question de la fracture technologique, soit la capacité à faire profiter de ses miracles à la communauté humaine dans son ensemble. On lira en filigrane chez Fukuyama une inquiétude quant à la distribution de la science et donc du pouvoir. Il anticipe aussi le procès en spécisme aux futurs humains augmentés : l’humain a toujours justifié son comportement envers les autres races et son propre environnement par le fait que son potentiel intellectuel était plus élevé. Que se passera-t-il quand une partie de la population génétiquement plus évoluée verra le jour dans nos sociétés ? Pourrons-nous garantir une forme d’égalité ?

Fukuyama confronte également la problématique de l’amélioration constante du corps à un prisme purement démographique et psychologique. Ne plus vieillir, pourquoi pas, mais comment gérer les nouveaux dieux éternels dans un monde si loin de l’Eden ?

« Les gens deviennent psychorigides en vieillissant, avec des idées fixes tenaces ; qu’ils le veuillent ou non, ils ne pourront pas rester séduisants et continuer à rechercher des partenaires en âge de procréation »

Et d’ajouter :

« (…) ils vont refuser de céder la place non seulement à leurs enfants, mais désormais aussi à leurs petits enfants »

Clairement, Fukuyama est avant tout un pragmatique, loin des idéaux de la tour d’ivoire de la Silicon Valley, il est presque un homme de terrain. En effet, comment croire à une généralisation du recul de l’âge de la mort dans une société où la moindre compétence est caduque en mois de 5 ans, alors 40, 50 ou 60 ans, est-ce seulement imaginable ? Face à ces contradictions, le recul de l’âge de la mort amènera-t-il à « une lutte des classes renouvelée à grande échelle » ?

Améliorer l’humain est une question sociétale, mais qui s’en préoccupe vraiment ?

Le débat démocratique est absent des considérations Transhumanistes. L’Etat lui-même comme entité régulatrice est peu informé et n’a pas saisi la question. Le mouvement techno-centré et assez emblématique d’un mode de pensée nourri d’un seul objectif et se passant sans complexe de tous compromis.

Noam Chomsky répond simplement à cette quasi-accusation pour complotisme. L’intellectuel soulève plusieurs points qui méritent une attention toute particulière :

La capacité libératoire de la technologie est évidente, souhaitable, attendue. Si la combinaison de l’intelligence artificielle et de la robotique est en mesure de libérer l’humain du fardeau du travail pour le faire aller vers des activités plus créatives, pourquoi s’y refuser ? En revanche, s’il s’agit de maximiser le profit et de « mettre les gens à la poubelle, alors ça n’est pas souhaitable ».

“If it is used to maximize profit and put people in the trash, then it’s not good”.

Notons au passage que dans cette courte interview, Noam Chomsky déclare que « l’intelligence artificielle est de la science-fiction ». La probabilité pour qu’une machine se comprenne elle-même est nulle, c’est d’ailleurs le propre d’une théorie : « ne pas se comprendre ». Il faudrait selon lui lever un paradoxe et penser à formaliser une théorie « auto-consciente » :

« Can we design a theory of being smart? »

Enfin, l’intellectuel rejoint Francis Fukuyama quand il saisit la question démocratique. Selon lui, il doit y avoir un débat et une prise de décision commune sur tous les aspects de la vie sociale (production, consommation) modifiés par la nouvelle genèse technologique. Fukuyama quant à lui cite à plusieurs reprises le pouvoir de réglementation de l’État comme entité régulatrice. L’idée étant de construire les bonnes institutions qui sauront distinguer les bons et les mauvais usages de la biotechnique.

La prise de contrôle est certes une donnée essentielle à l’équation du Transhumanisme. Le Transhumanisme lui-même est intrinsèquement lié à l’intelligence artificielle, les deux marchent main dans la main vers la consécration finale : la célébration de la technique au-delà de toutes valeurs humaines. D’ailleurs, les valeurs humaines sont-elles extensibles à du silicium ?

Jeremy Rifkin « Machines do not empathize »

On ne le présente plus, Jeremy Rifkin est un prophète en son temps, critiqué mais écouté. En 1996, il écrit The end of work, ouvrage qui anticipe une restructuration de la société autour de la fin progressive du travail, elle même découlant d’un changement dans les modes de production, et plus particulièrement d’une refonte du ratio capital / travail. Rifkin a réitéré cette année avec La société du cout marginal zéro, le mode de fonctionnement qu’il décrit mêle auto-production locale et robotisation massive de la société, en fin de compte, les intermédiaires et distributeurs disparaissent au profit d’un mode d’échange direct. A la clé, des gains de productivité substantiels et des tas de gens sans travail, Jeremy Rifkin y voit une opportunité, on pourrait en causer longtemps.

Revenons à nos moutons, dans cette vidéo, Jeremy Rifkin déclare que :

1) L’intelligence Artificielle est un mythe. Le test de Turing (qui sert à déterminer un degré élevé d' »humanisation » d’une machine) ne sera jamais passé (entendons-nous, le test de Turing a été passé cette année, mais c’est une belle entourloupe). Il se justifie en expliquant que jamais les machines ne seront capables d’empathie ni de culture. Ces domaines restent le propre de l’homme.

2) Une intelligence « suprême » n’est pas souhaitable. L’argument est plutôt original ici : il fait référence aux caractéristiques « centralisées » d’un tel projet, en effet, quand on embrasse les thèses « collaborationnistes » de Jeremy Rifkin, on comprend bien qu’il ne puisse à aucun moment envisager toute forme de contrôle descendant et non partagé.

3) La troisième révolution industrielle promue par Rifkin découle d’un triptyque énergie / communication / transport a pour ambition de « connecter toute la race humaine ». L’empathie résume d’ailleurs cet objectif : concevoir son existence dans un cadre global commun a tous les humains et à ce qui les entoure. Selon lui, les machines ne peuvent pas entrer dans cette définition.

Ce court extrait offre quelques rappels élémentaires : « La machine ne sera jamais humaine, car c’est une machine ». Je ferai pour ma part un parallèle évident avec Fukuyama déclarant que l’homme « n’est pas un disque dur sur lequel on grave des compétences, des émotions, des mécanismes« . En somme, c’est l’hypothèse de la « Tabula rasa » Lockienne qui est ici remise en cause. Par conséquent, il est clairement affirmé qu’il n’existe aucun déterminisme biologique et génétique, l’humain n’est pas un répertoire de calculs immenses et reproductibles. La thèse de Kurzweil qui prévoit la réplication d’un être humain pour 2045 est à côté de la plaque, et dangereuse.

Paradoxalement, en écoutant successivement Ray Kurzweil et Jeremy Rifkin, on s’aperçoit que les deux bonshommes caressent in fine un rêve presque commun : la fusion de tous les humains. Le premier par la conquête de l’univers et la soif de savoir, le deuxième par l’empathie et le besoin de toujours envisager son propre impact sur les autres et sur son environnement. C’est peut-être à ce moment précis qu’une piste s’ouvre vers « l’humanisme augmenté » : une pure réflexion sur la place de l’ambition technologique de l’homme au moment où celle-ci pourrait freiner son développement en tant qu’espèce. Ce qui me conduit à cette question; l’impératif catégorique Kantien est-il programmable ?

L’intelligence artificielle, la nouvelle bombe atomique

C’est Bill Joy qui soulève la question dans « Why the future doesn’t need us ». Au même titre que les inventeurs de la bombe atomique, les scientifiques qui construisent la genèse de l’intelligence artificielle sont peu enclin à faire de la politique et de la sociologie.

« (…) Chacune de ces technologies nous fait miroiter sa promesse secrète, et ce qui nous meut n’est autre que la vision de quasi-immortalité présente dans les rêves de robot de Kurzweil. »

Face à cela, Bill Joy remet en cause notre capacité à assumer les conséquences de nos innovations. La morale et la prudence exigeraient un principe de précaution qui selon lui, n’existe pas suffisamment aujourd’hui. A l’heure où le monde s’écharpe non plus sur le nombre de bombes nucléaires en stock, mais sur la capacité des acteurs à maîtriser des technologies suffisamment puissantes pour contrôler à distance les infrastructures ennemies, la course à l’innovation ne serait-elle pas qu’une forme allongée de bataille dont la base tient dans la confrontation des modèles de sociétés ? Autrement dit, allons-nous assister à une nouvelle guerre froide dont l’épée de Damoclès serait l’intelligence artificielle et la puissance du code ?

Ainsi, Bill Joy en appelle à la sagesse ancienne, selon Le dalaï-lama, il nous faut comprendre ce qui rend l’homme heureux, et se rendre à l’évidence : la clé n’en est ni le progrès matériel, ni la recherche du pouvoir que confère le savoir. En clair, il y a des limites à ce que science et recherche scientifique, seules, peuvent accomplir. Jeremy Rifkin arrive aux mêmes conclusions dans La civilisation de l’empathie, LLL, 2011.

En somme, il faudrait en finir avec les dogmes instituant qu’il faudrait « commencer par planter les bases d’un système qui marcherait, pour que ça marche ». Sinon, la course à la technologie ne se réduit qu’à une ritournelle tautologique : nous croyons nous approcher du moment où nous pourrons commencer à vivre dans une utopie, un avenir radieux,  mais pour y arriver, il faudrait absolument passer par ces étapes intermédiaires qu’on ne saurait freiner de trop nombreuses questions éthiques.

Peut-être est-il temps de trancher démocratiquement, avec sagesse et en mettant de l’eau dans sa concupiscence technologique qui nous pousse trop souvent à accepter tout et n’importe quoi, pourvu que ça brille.

S’abonner
Notifier de
guest
0 Commentaires
Inline Feedbacks
View all comments