Intelligence artificielle : un dispositif de « froideur bourgeoise » ?

Il est désormais commun d’entendre parler de l’intelligence artificielle et, plus précisément, de l’IA générative comme d’un progrès technique proprement révolutionnaire. « L’intelligence artificielle est une révolution technologique incontournable », nous dit la Commission de l’intelligence artificielle dans la sentence introductive du rapport qu’elle a remis au Président de la République le 13 mars dernier[1]. L’un de ses membres, l’entrepreneur Gilles Babinet, est plus audacieux et va jusqu’à parler, à l’instar du paléoanthropologue Pascal Picq[2], de révolution anthropologique[3]. Selon Lionel Obadia, Professeur d’Anthropologie sociale et culturelle à l’Université Lumière Lyon 2, l’idée de révolution ou de rupture anthropologique désigne « un phénomène de nature à transformer en profondeur (structurellement) l’ordre de la pensée et de l’organisation sociale ». Seul le temps pourra donc confirmer ou infirmer le caractère anthropologiquement révolutionnaire de l’IA. Une chose est sûre cependant : l’organisation sociale dont émane l’intelligence artificielle actuellement dominante, celle que l’artiste et essayiste James Bridle nomme « corporate AI »[4], n’a strictement rien de révolutionnaire, tant elle repose sur une « industrie extractive »[5] qui exploite violemment les ressources naturelles et la main-d’œuvre bon marché. Les sources d’informations sur la réalité de ce système ne manquent plus et se multiplient. Les conditions de production de l’IA interrogent donc notre rapport collectif à l’altérité humaine et non-humaine et font de l’intelligence artificielle un enjeu moral autant que politique, technique et économique. C’est cet enjeu moral que je voudrais détailler ici en développant l’idée que l’IA dominante telle qu’elle est faite est un dispositif rendu possible par notre « froideur bourgeoise », pour reprendre le concept du philosophe allemand Théodore W. Adorno.

Un texte de Julien De Sanctis, docteur en philosophie et philosophe chez Thaé*

Un enjeu « moral » ?

Que faut-il entendre par « enjeu moral » ? Point de moralisme ou de « leçon de morale » ici. La morale, malgré la méfiance voire le rejet qu’elle suscite parfois, est bien plus que cela. On lui préfère aujourd’hui la notion d’éthique, réputée moins rigide et plus individuelle ou « personnalisable » diraient certain·es ; pourtant, comme l’affirme la philosophe Laurence Devillairs, « rien ne justifie d’opposer les termes de morale et d’éthique, si ce n’est que le premier vient du latin mores, et l’autre du grec ethos. Tous deux renvoient dans leur étymologie à l’idée de mœurs, de manières d’agir et de se comporter suivant des normes. »[6] Au-delà de cette correspondance étymologique, on peut soutenir l’indistinction entre éthique et morale en ce qu’elle renvoie toutes deux à une même disposition fondamentale de la subjectivité : la conscience soucieuse d’autrui.  Je  n’est pas seul.  Je ne peut pas tout faire parce que, face à autrui (comme face à soi-même d’ailleurs), tout ne se vaut pas. C’est la présence inéluctable d’autrui dans le monde qui fait que, comme l’affirme Laurence Devillairs, « [t]oute conscience est conscience morale. » L’autre nom de cette conscience et de son « intranquillité foncière »[7], c’est la responsabilité. L’immoralité commence donc dans la non reconnaissance de cette responsabilité qui mène à l’indifférence envers autrui et, dans le pire des cas, à la négation de sa dignité.

Une « industrie extractive »

Revenons maintenant à l’IA. L’intelligence artificielle constitue un enjeu moral parce qu’elle interroge, de sa conception jusqu’à ses usages, la place que nous accordons au souci de l’autre que je viens de décrire. Ici, je me concentrerai sur la phase de conception, mais avant cela, il faut préciser le cadre conceptuel qui sous-tend mon propos. Lorsque je parle d’IA, je m’appuie sur le travail de la chercheuse Kate Crawford où l’intelligence artificielle désigne « une formation industrielle massive qui inclut politique, main-d’œuvre, culture et capital. »[8] Cette industrie donne bien sûr naissance à des techniques spécifiques dont les plus connues sont les algorithmes d’apprentissage automatique, mais elle ne se limite aucunement à cette seule dimension. « Fondamentalement, l’IA est faite de pratiques techniques et sociales, d’institutions et d’infrastructures, de politique et de culture […] : les systèmes d’IA reflètent et produisent des relations sociales et des façons de comprendre le monde. »[9] Selon Crawford, l’IA est une « industrie extractive » dont les créations « reposent sur l’exploitation des ressources énergétiques et minérales de la planète, sur la main-d’œuvre bon marché et sur les données à grande échelle. »[10]

Concernant la main d’œuvre, nous savons désormais grâce aux travaux comme ceux du sociologue Antonio Casilli[11], mais aussi grâce aux enquêtes journalistiques qui se multiplient, que l’autonomie tant vantée des systèmes d’IA est foncièrement dépendante d’un travail humain aussi fastidieux que parfois traumatisant : passer en revue de grands ensemble de données pour marquer des images, filtrer des contenus à risque ou tout bonnement inacceptables, annoter des objets au sein d’image pour qu’un algorithme apprenne ensuite à les repérer ou encore répéter des phrases pour entrainer l’IA à reconnaître des voix différentes. Sans surprise, ce « travail du clic » comme le nomme Casilli, est principalement effectué par des habitant·es des pays dits du Sud.

« Les plus grandes entreprises de la tech rêvent d’un avenir proche où l’IA remplacera une grande partie du travail humain, libérant ainsi un plus grand potentiel d’efficacité et de productivité. Mais cette vision ne tient pas compte du fait qu’une grande partie de ce que nous considérons comme de l’intelligence artificielle est en réalité alimentée par un travail humain fastidieux et mal rémunéré. […] Dans un document publié en 2021 sur le rôle de la main-d’œuvre mondiale dans le développement de l’IA, des chercheurs en éthique de l’IA ont fait valoir que l’inclusion actuelle de travailleurs du Sud dans le processus de l’IA est une continuation des pratiques d’exploitation – qui n’est pas sans rappeler l’histoire de l’exploitation coloniale, durant laquelle les États occidentaux ont profité des populations du Sud et de leurs ressources pour accéder à une main-d’œuvre bon marché, physiquement éprouvante, au profit de leurs institutions et de leurs entreprises. »[12]

L’aliénation engendrée par ce travail du clic culmine dans les occurrences où il devient psychiquement traumatisant. Pour se prémunir contre la violence verbale et/ou visuelle que leurs produits pourraient relayer, les sociétés comme OpenAI ou Facebook doivent en effet « éduquer » leurs algorithmes afin qu’ils détectent par eux-mêmes les contenus inacceptables. Or, tout se joue dans la phase qui précède cette automatisation. Pour qu’une IA apprenne à détecter la toxicité, il faut préalablement la nourrir avec de grandes quantités de données lui indiquant ce qu’est la toxicité en question. Cet apprentissage, comme n’importe quel autre, est effectué grâce à l’annotation humaine d’images et de textes. Des travailleurs et travailleuses sous-payées se retrouvent donc à devoir annoter des données exposant des faits de pédophilie, de meurtre, de viol, de suicide, d’automutilation ou encore d’inceste. « C’était de la torture », raconte au TIME un travailleur de Sama, une société à laquelle OpenAI sous-traitait cette besogne. L’homme dit souffrir de visions récurrentes après avoir lu la description graphique d’un homme violant un chien devant un enfant [13]. Dans une enquête précédente du journal, une autre personne, chargée de modérer des contenus pour Facebook, témoigne : « Le travail que nous effectuons est une sorte de torture mentale. » Et elle ajoute : « Je vis au jour le jour. Je ne peux pas économiser un centime. Parfois, j’ai envie de démissionner. Mais je me demande alors : que mangera mon bébé ? »[14]

Le bilan n’est pas moins effrayant du côté de l’extraction des ressources énergétiques et minérales. A cet égard, Kate Crawford nous prévient d’entrée de jeu : « Depuis l’antiquité, l’activité minière n’a été rentable que parce qu’on ne tient pas compte de son coût réel, notamment les dégâts environnementaux, la maladie et la mort des mineurs, et les pertes pour les communautés qu’elle chasse. »[15] Parmi d’autres exemples, elle évoque ensuite les petites îles indonésiennes de Bangka et Belitung, toutes deux productrices d’étain[16] utilisé pour la fabrication de semi-conducteurs.

« Sur ces petites îles, les mineurs du « marché gris », qui ne sont pas officiellement employé, sur des pontons de fortune et, munis de tiges de bambou, il racle le fond de l’eau avant de plonger pour récupérer l’étain à la surface en collant leur bouche a d’énormes tuyaux d’aspirateurs. (…) sans aucune réglementation, le processus se déroule hors de toute protection officielle des travailleurs ou de l’environnement. »[17]

Et Crawford de citer la journaliste d’investigation Kate Hodal :

« les dégâts sont surtout visibles depuis le ciel, les poches de forêt verdoyante étant disséminées au milieu de immenses étendues de terre orange stérile. Quand le paysage n’est pas dominé par les mines, il est criblé de tombes, dont beaucoup abritent les cadavres de mineurs d’étain morts au fil des siècles. »[18]

La question radicale au sens propre que posent ces enquêtes et témoignages est on ne peut plus simple : l’industrie actuelle qu’est l’IA vaut-elle les ravages qu’elle occasionne et sur lesquels elle prospère ? Gardons-nous de juger cette question naïve car elle attire notre attention sur le sort que notre conception du progrès réserve à l’altérité humaine et non-humaine et maintient bien vivante cette capacité morale essentielle qu’est le discernement entre ce qui est et ce qui devrait être. Évitons également le piège de l’arbre qui cache la forêt en convoquant les promesses de l’IA en matière de santé comme si elles lui accordaient une sorte d’immunité. La perspective d’une amélioration considérable du soin par l’IA doit bien sûr être prise au sérieux, mais ne constitue aucunement un blanc-seing pour son industrie[19] qui repose structurellement sur le défaut de soin.

L’IA comme « dispositif »

A cet égard, il est intéressant de constater que l’analyse socio-politique concrète proposée par Kate Crawford corrobore pour partie ce qu’affirmait le philosophe Martin Heidegger à propos de la technique moderne sur le plan métaphysique. Dans sa célèbre conférence intitulée « La question de la technique », Heidegger avance l’idée que l’essence de la technique moderne « n’est absolument rien de technique »[20] et qu’elle est à chercher dans un régime phénoménologique – le philosophe parle de « mode de dévoilement » – bien particulier auquel il donne le nom de « Dispositif »[21]. Les notions de « régime phénoménologique » ou de « mode de dévoilement » désignent la façon dont les choses apparaissent à notre perception ; perception qui est toujours en même temps une interprétation. On pourrait donc aussi parler de régime perceptif et interprétatif, à condition de préciser que cette interprétation n’est pas une décision : le Dispositif dont parle Heidegger n’est pas un choix de notre part, mais une façon de voir le monde propre à l’époque, à la modernité en l’occurrence, qui s’impose à nous.

Mais en quoi consiste cette perception-interprétation qu’est la technique moderne ? Il s’agit, explique Heidegger, d’un mode de dévoilement où le réel tout entier apparaît comme « fonds disponible » dans lequel chaque chose peut être abstraite, décontextualisée sur le mode de la ressource extractible et exploitable indéfiniment. Autrement dit, la technique moderne nous dispose par essence à percevoir le monde et ses composantes comme étant à disposition : c’est un mode de dévoilement négateur de l’altérité et de la dignité des êtres. Le philosophe parle ainsi de l’essence de la technique moderne comme du « plus grand de tous les dangers » car elle conduit à tout percevoir au prisme de la domination humaine, y compris l’humain lui-même. A cet égard, l’aboutissement ultime du Dispositif n’est autre que la désubjectivation de l’humain par l’humain puisqu’il fait lui-même partie du fonds disponible qu’est le réel. Le danger est bien sûr celui des traitements réifiant que l’humain réserve à ses semblables au sein du Dispositif, mais Heidegger pointe plus largement vers celui de l’incapacité à nous percevoir nous-mêmes autrement que comme des exploitant·es du fonds disponible.  

Bien qu’influente, la thèse d’Heidegger a fait l’objet de nombreuses critiques portant à la fois sur son caractère essentialiste, donc peu soucieux des singularités propres à chaque technique, et dépolitisant, car métaphysique et oublieux du problème fondamental de l’organisation économique qui préside à la conception technique, à savoir, le capitalisme. On peut toutefois retenir un point important : en expliquant que le rapport au monde constitutif de la technique moderne est fondé sur la domination et l’exploitation de toute chose, Heidegger identifie une logique systémique à l’œuvre où la dignité des êtres du monde, humain comme non-humain, est niée au profit d’un statut purement instrumental – logique que l’étude des techniques au cas par cas n’invalide en rien. Dans le cas qui nous occupe, il n’est pas question d’affirmer que l’IA ne peut rien produire de positif[22], mais plutôt de reconnaître que son mode de production actuel – ses conditions de possibilité à l’instant T donc – repose structurellement sur un extractivisme dominateur foncièrement problématique.   

Loin des yeux, loin du cœur : IA et « froideur bourgeoise »

Ainsi, le cœur du problème moral lié à l’IA est à chercher dans ses conditions de possibilité. Au-delà des questions de pouvoir-faire technique, politique et économique, l’IA repose sur une carence morale, une défaillance de la sensibilité humaine à laquelle Théodor W. Adorno donne le nom de « froideur bourgeoise ». Présentée dans une conférence de 1966 intitulée « Éduquer après Auschwitz », la notion renvoie à l’indifférence envers autrui que le philosophe assimile à un trait psychique constitutif de l’humain moderne. Contrairement à Heidegger – dont il fut l’un des plus grands critiques –, Adorno ne situe pas son analyse sur le plan ontologique, mais social. Selon lui, l’étouffement de nos sensibilités émane de l’organisation capitaliste de la société qui place la poursuite des intérêts individuels (et donc, in fine, le repli sur soi) au fondement de la collectivité et produit des agencements sociaux qui entravent la possibilité d’une expérience morale. Le capitalisme produit un agent moral déficient car « exposé à des mécanismes politiques et sociaux ou pris dans des formes de vie susceptibles de l’empêcher de percevoir des besoins ou des souffrances, de le retenir d’y répondre ou de l’amener à y répondre de manière inappropriée »[23].

Si l’industrie qu’est l’IA connait l’essor qui est le sien aujourd’hui, c’est notamment parce que nous sommes collectivement des agents moraux déficients et que cette déficience est, j’insiste, socialement organisée. Autrement dit, l’enjeu ne se résume pas à un problème de volonté ou d’information plus ou moins complète des usager·es. Certes, nous sommes de plus en plus nombreux·ses à connaître les énormes dégâts socio-écologiques sur lesquels cette industrie prospère et, malgré ça, nous utilisons plus ou moins régulièrement ses produits. Cette indifférence ou, a minima, ce manque de volonté morale est effectivement une expression de la froideur bourgeoise dont il est question. Mais le cœur du problème n’est pas là. Il se situe plutôt dans la structuration sociale de nos vies qui empêchent trop souvent de réunir les conditions d’une authentique expérience morale. De la même façon que la mise à mort des animaux d’élevage se fait dans des abattoirs situés en périphérie des villes, c’est-à-dire à l’abri des regards[24], nous ne sommes jamais confronté·es en personne aux maltraitances et aux destructions qu’occasionne l’industrie de l’IA. Loin des yeux, loin du cœur, donc. Cette distanciation morale est d’ailleurs renforcée par le mirage d’immatérialité qui auréole les systèmes d’intelligence artificielle.

Au fond, l’IA telle qu’elle se fait aujourd’hui n’est que le symptôme d’une organisation sociale (relevant elle-même d’un rapport au monde) qui la précède et la rend possible. Cette organisation fonde et se fonde sur une crise de la sensibilisé morale qui nous incite au mieux à considérer l’exploitation d’autrui comme une fatalité et au pire à s’en moquer. L’enjeu moral auquel nous confronte l’intelligence artificielle est donc aussi un enjeu politique attaché à cette question : comment créer les conditions d’un vivre-ensemble favorable à l’épanouissement de l’expérience morale ?

***

*Julien De Sanctis est docteur en philosophie. Sa thèse CIFRE portant sur les robots sociaux, il a travaillé pendant 4 ans dans une entreprise de robotique en tant que chargé de recherches en éthique. Il travaille aujourd’hui pour l’agence de philosophie Thaé.

***

[1] https://www.economie.gouv.fr/cge/commission-ia

[2] Olivier Girard & Pascal Picq (2023, 24 mai), « Les grands défis de la technologie », Philonomist. https://www.philonomist.com/fr/dialogue/les-grands-defis-de-la-technologie

[3] https://fr.linkedin.com/posts/gillesbabinet_25-recommandations-pour-lia-en-france-activity-7173984547678638081-Afob

[4] James Bridle, Toutes les intelligences du monde. Animaux, plantes, machines, Seuil, 2023. Voir également l’interview intitulée « An Ecological Technology » pour Emergence Magazine.

[5] Kate Crawford, Contre-Atlas de l’intelligence artificielle, Zulma, 2022, p.26.

[6] Laurence Devillairs, Être quelqu’un de bien. Philosophie du bien et du mal, PUF, p.31.

[7] ibid., p.48.

[8] Kate Crawford, Contre-atlas de l’intelligence artificielle, Zulma Éditions, 2021, p.20.

[9] ibid., p.19.

[10] ibid., p.26.

[11] Antonio Casilli, En attendant les robots. Enquête sur le travail du clic, Seuil, 2019.

[12] Chloe Xiang, « L’IA n’est ni intelligente ni artificielle », Vice, 02/01/23 https://www.vice.com/fr/article/wxnaqz/lia-nest-ni-intelligente-ni-artificielle

[13] Billy Perrigo, « OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic », Time, 18/01/2023. https://time.com/6247678/openai-chatgpt-kenya-workers/  

[14] Billy Perrigo, « Inside Facebook’s African Sweatshop », TIME, 17/02/2022. https://time.com/6147458/facebook-africa-content-moderation-employee-treatment/

[15] Kate Crawford, op. cit., p.38.

[16] L’Indonésie est le second producteur mondial d’étain derrière la Chine et 90% de sa production est assurée par les îles de Bangka et de Betilung.

[17] Ibid., p.51.

[18] Ibid.

[19] Benjamin Leclerq, « Médecine : avec l’intelligence artificielle, le soin à la ligne », Libération, 30/11/2023. https://www.liberation.fr/forums/medecine-avec-lintelligence-artificielle-le-soin-a-la-ligne-20231130_QTQUDU4B2FCWPOABZ4PGOMGXUQ/

[20] Martin Heidegger, « La question de la technique », in Essais et conférence, Gallimard, 1958, p.9.

[21] Une traduction possible du sens très singulier qu’Heidegger, de son propre aveu, donne au terme allemand Gestell et qui signifie couramment « cadre », « châssis », « étagère », « chevalet ».

[22] Ce n’est d’ailleurs pas ce que dit Heidegger de « la » technique moderne. Céder au réflexe de l’attaque en technophobie face à une position technocritique, aussi sévère soit-elle, serait ici la meilleure façon de ne rien comprendre au propos du philosophe. De nombreuses analyses sur la « non technophobie » d’Heidegger sont disponibles en ligne comme hors ligne. Voir, par exemple, ce court commentaire du texte heideggérien : https://www.chaireeconomieduclimat.org/points-de-vue/la-chaire-a-lu-pour-vous-la-question-de-la-technique-de-martin-heidegger/

[23] Estelle Ferrarese, La fragilité du souci des autres. Adorno et le care, Paris, ENS Éditions, 2018, p.9.

[24] Hicham-Stéphane Afeissa, Manifeste pour une écologie de la différence, Éditions Dehors, 2021, p.75. Jusqu’à la fin du XIXe siècle, les lieux de vente et de mise à mort n’étaient pas séparés, et chacun·e pouvait assister à l’abatage d’animaux qu’ils ou elles allaient consommer.

S’abonner
Notifier de
guest
1 Commentaire
Inline Feedbacks
View all comments
trackback

[…] Intelligence artificielle : un dispositif de « froideur bourgeoise » ? (maisouvaleweb.fr) […]