Doit-on réduire l’intelligence artificielle générale en esclavage ? Réflexion sur une question fictive

Dans un article publié dans la revue AI & Ethics,  « AGI and slavery » (intelligence artificielle générale et esclavage), les chercheurs Louie Kangeter et Brian Patrick Green s’interrogent : si l’IA finissait par devenir consciente et que nous lui imposions de réaliser des travaux qu’« elle » ne souhaite pas faire, serait-ce l’équivalent d’une mise en esclavage ? 

Ceux qui me lisent savent à quel point j’abhorre les questions spéculatives et les débats « vraiment faux, ou faussement vrais », pour citer Bourdieu. Il me semble plutôt nécessaire de déconstruire ces récits, comme je l’ai déjà fait dans le domaine de l’IA (voir, Vrais et faux risques de l’intelligence artificielle) ou encore celui de l’éthique de l’exploration spatiale (voir L’éthique de la vie dans l’espace ou comment répondre aux questions qui ne se posent pas). C’est dans cet esprit que je survole ici ce papier.

Le point de départ des auteurs est le suivant : la possibilité qu’une intelligence artificielle (notons que la formule n’est pas définie dans l’article) devienne un jour « consciente » est sujette à controverse dans (une partie) du champ scientifique. Pour certains chercheurs tels que Jean-Gabriel Ganascia, c’est une impossibilité ferme. Pour d’autres, une éventualité à court, moyen ou long terme, affirment-ils. Plusieurs ingénieurs se sont en effet déjà pris au jeu de donner des dates précises à cet éveil depuis du silicium. Le futurologue Ray Kurzweil par exemple, établissait dans son ouvrage The singularity is near (2005), la date de la « singularité technologique » à 2045. Il reste constant dans cette prédiction, prévoyant également l’arrivée de l’IAG – l’intelligence artificielle générale, capable d’effectuer ou d’apprendre pratiquement n’importe quelle tâche cognitive propre aux humains – à 2029. On notera que si des scientifiques ou le plus souvent, des ingénieurs s’expriment sur cette question, rien de fondamentalement scientifique ne vient étayer leurs affirmations dans la mesure où la conscience elle-même n’étant pas définie, il est par construction impossible de savoir si nous pourrions la copier ou la faire émerger. S’il n’est absolument pas interdit de poser la question, elle reste une expérience de pensée, un scénario hypothétique sur lequel il devient possible de bâtir en séries des théories en tous genres, jusqu’à en oublier que le socle reste en définitive spéculatif. 

Absence de preuve ne valant pas preuve d’absence, les auteurs, précautionneux, partent du principe qu’il convient toutefois d’envisager cette possibilité. Dès lors, écrivent-ils : « Si des êtres artificiellement intelligents et conscients sont créés et utilisés pour accomplir des tâches que les humains ne veulent pas faire, que sont-ils, sinon des esclaves ? »

À défaut de définir l’IA, Kangeter et Green s’attardent un peu plus longuement sur la notion de « travail », entendue pour aller au plus simple comme une activité centrale de l’existence humaine qui s’étend bien au-delà de la capacité à survivre. Le travail, contrairement à l’esclavage, est une entreprise volontaire dans laquelle des individus s’engagent pour tout un tas de raisons, économiques, personnelles, affectives, etc. Le travail implique aussi une quête de sens, un objectif et une contribution à la société. L’esclavage, faut-il le rappeler, est une activité forcée, sans consentement ni compensation. La possibilité d’une IA devenue consciente pose à cet égard une question rétroactive : sa mise en esclavage pose un dilemme moral qu’il faudrait impérativement résoudre (« avant qu’il ne devienne très problématique »). Question spéculative donc, reposant sur une incertitude. Mais après tout, les fameuses « lois de la robotique » d’Asimov le sont aussi, ce qui n’empêche pas une pelletée de chercheurs de s’y intéresser. Pour faire un parallèle astronautique : il est tout aussi intéressant de savoir si oui ou non nous devrions autoriser les accouchements en orbite en prévision de la colonisation du système solaire, ou encore si aller chercher des astéroïdes en orbite est une opportunité ou un risque pour l’humanité, lié à leur possible arsenalisation, comme le postule le politiste Daniel Deudney. Pour paraphraser le philosophe spécialiste des questions éthiques de l’intelligence artificielle Maël Pégny, le rôle de l’éthique est « d’être pertinente pour les problèmes auxquels nous faisons face aujourd’hui » : reste à savoir à quelle échelle temporelle nous évaluons l’étendue de ce « aujourd’hui », modulo les développements technologiques en cours. Toutes ces projections, aussi hasardeuses soient-elles, ne sont pas figées sur les mêmes échelles de temps. Certains scénarios relèvent de la pure science-fiction, d’autres restent contingentés à des développements techniques importants mais pas inimaginables : à ce jour, il n’est pas impossible de penser à l’idée, par exemple, de ramener un (petit) astéroïde sur Terre.

Mais continuons quand même. Les auteurs rappellent également que des chercheurs se sont déjà prononcés sur leur problématique. Pour While Bryson par exemple, à la question de savoir si nous pourrions ou devrions nous prêter à de tels comportements de « mise en esclavage », la réponse est oui : “robots should be slaves” : « En les humanisant, non seulement nous déshumanisons encore davantage les vraies personnes, mais nous favorisons également une prise de décision humaine défaillante dans l’allocation des ressources et des responsabilités ». Les objets techniques seraient à notre service, sur le mode de l’asservissement ou de l’arraisonnement, à l’instar des « esclaves énergétiques », formule employée pour illustrer la dépendance des sociétés modernes aux machines et aux sources d’énergie, mais qui renvoie également à l’idée que chaque objet technique fournit à chaque humain une puissance équivalente à un certain nombre « d’esclaves », d’un point de vue strictement théorique et mathématique. On notera que si la formule est largement popularisée par Jean-Marc Jancovici, elle fut apparemment inventée par Oscar Wilde. 

Les auteurs ne souscrivent pas à la lecture de Bryson et donc, condamnent sans ambiguïté cette reductio ad servitutem. Pour eux, si les IA deviennent un jour conscientes, parler d’esclavage devient alors approprié. Il conviendrait donc, pour des raisons relatives à la dignité humaine, et avec l’aide de Kant et d’Aristote, d’interdire cette mise en esclavage. Cela n’a rien d’évident puisqu’il est tentant pour les humains de leur déléguer leurs basses besognes. 

La possibilité d’un état conscient d’une machine, une notion floue après tout, fait l’objet d’un développement dans l’article. Celui-ci est catégorisé en trois options : 1/ une entité consciente d’elle-même, 2/ une entité consciente « de quelque chose » et 3/ une entité pourvue d’états mentaux conscients, une conscience d’être. On notera qu’aucune de ces définitions n’inscrivent « l’IA » dans un quelconque biotope : elle demeure hors sol, conforme à l’idée de l’animal machine de Descartes. Un cerveau sans corps, ou un corps sans lien avec son environnement (on ne notera aucune occurrence du mot « corps » dans l’article). Pas plus qu’elles n’envisagent différents degrés de conscience (celle de la fourmi équivaut-elle à celle du pissenlit, du chat ou de la baleine ? On ne saura pas). La conscience reste en définitive, la conscience humaine. En conséquence, la critique de la mise en esclavage d’une conscience vaut pour l’humain seulement – les poulets en batterie ne sont pas mentionnés (mais les chiens oui, dans un passage expliquant que ceux-ci prennent prennent naturellement plaisir à l’exercice de leur travail, par exemple : garder un troupeau). Filant l’analogie, les auteurs s’interrogent sur le statut affectif de l’apprentissage par renforcement qui permet aux humains d’apprendre à la machine à délivrer les bonnes réponses au moyen de systèmes de « récompense » : s’agit-il là d’une sorte de syndrome de Stockholm dont serait victime l’IA, spéculent les auteurs, avant de se raviser : la question est prématurée. 

De cette classification les auteurs tirent trois possibilités : 1/ l’IA est déjà consciente, 2/ L’IA deviendra consciente dans un futur proche, 3/ L’IA deviendra consciente dans un futur lointain et 4/ L’IA ne deviendra jamais consciente. Un homme averti en valant deux, il est proposé d’éviter le deuxième scénario et les problèmes pouvant en découler, comme la rébellion des machines. Il est toutefois possible que ce moment finisse par advenir sous la pression d’une prime à l’invention d’une telle intelligence consciente. Kangeter et Green rappellent que l’homme est un être technique, plus encore que les non-humains comme la loutre ou la fourmi (encore elle) qui, bien que capables d’utiliser divers types d’outils, ne sont ni capables de déplacer des milliers de tonnes de terre en une seule fois, ni encore de voler à des vitesses hypersoniques (sic). « Nous » (les humains – il ne sera pas vraiment précisé lesquels en particulier sur la planète), continuerons à développer des outils qui « nous » facilitent la vie et permettront de maximiser le rendement de « nos » moindres activités. C’est à dessein que j’abuse des guillemets autour de ce ramassage brutal en humanité « totalisée » toujours un brin caricatural : certains humains plus que d’autres pensent, conçoivent, utilisent ou démantèlent les objets techniques une fois ceux-ci devenus obsolètes.  

Construire une IA la plus compétente possible, et donc potentiellement consciente, si l’on suit les auteurs, est aussi intéressant dans la mesure où étant donné son coût, il est préférable qu’elle soit capable de réaliser 1000 actions différentes plutôt que 10 ou 100. À cela il faut ajouter la motivation intrinsèque de certains ingénieurs qui dirigent leur hubris vers cette finalité, pour des raisons diverses et variées : être le premier à faire, la religion et la quête de transcendence ou le simple défi technique. En définitive, ils pourraient donc finir par se trouver en « possession » d’un être artificiel à leur service : la définition même de l’esclavage. Cela ne va pas sans réveiller quelques dilemmes philosophiques comme par exemple, la fameuse dialectique du maître et de l’esclave de Hegel, suivant laquelle le premier finirait par devenir dépendant du dernier. En tout état de cause : « Faire exister un individu conscient dans le seul but d’extraire son travail comme on extrait du charbon d’une mine est la forme la plus profonde et la plus vile forme de l’esclavage ». Dans le prolongement de notre pas de côté sur les animaux, on pourrait ajouter qu’en dehors de la question de la conscience, l’idée même d’envisager les IA comme des serviteurs ou des majordomes, de s’en servir pour répliquer les mêmes structures sociales inégalitaires (voir « A quoi bon changer les technologies si on ne change pas les rapports sociaux ? ») voire même de les renforcer par l’usage ad nauseum de ressources partout dans le monde, de l’eau aux minerais de sang minerais de sang (du cuivre au cobalt en passant par la lithium) pose déjà un certain nombre de questions qui pourraient tomber sous le coup du procès en esclavage. Mais de cela, il n’en sera pas question dans l’article.

La dernière menace pour les auteurs, réside dans les possibilités qu’offrent la mise sur pied d’esclaves fonctionnels disponibles pour accomplir nos moindres désirs. Dans un tel scénario, nous serions comme des enfants nés dans l’abondance et l’opulence, jamais confrontés à des défis, à des manques et à des adversités quelconques. Dit autrement, nous deviendrions paresseurs, déconnectés de la réalité et incapables d’une quelconque planification future des affaires humaines : esclaves de nos esclaves, pour reprendre la terminologie hégélienne. Le possible déclin de l’humanité basé sur la trop grande confiance en des agents leur suggérant toutes leurs actions, couplé à la possibilité d’une « révolte » des IA, représenterait donc des risques existentiels devant nous amener dès maintenant, à interdire la mise en esclavage des IA. 

On notera le grand ethnocentrisme et même, l’occidentalisme de toute la proposition. Sa cécité quant aux conditions de travail déjà souvent proches de l’esclavage, bases mêmes de la production de ces artefacts numériques : siphonnage en règle de ressources minières, annotation des données par des travailleurs sous-payés, etc. De ce point de vue, l’idée selon laquelle nous nous libérerions des tâches « ennuyeuses » en les confiant à des machines ne résiste pas longtemps à la réalité des conditions de production de l’IA dans les pays du Sud global. L’oppression spéculée d’êtres artificiels qui n’existent pas encore et qui n’existeront très probablement jamais est en tout point conforme à la rhétorique des concepteurs de ces technologies : saturer l’espace médiatique de non-questions et autres faux dilemmes pour mieux détourner le regard des quasi-esclaves à la base de l’industrie numérique, faits de chair et d’os. Faut-il réduire l’IA en esclavage donc, ou juste apprendre à établir avec plus de prudence les frontières entre différents genres textuels, scientifiques ou fictionnels ?

Hanna Barakat + AIxDESIGN & Archival Images of AI / Better Images of AI / Weaving Wires 2 / CC-BY 4.0

S’abonner
Notifier de
guest
0 Commentaires
Inline Feedbacks
View all comments