Éthique et intelligence artificielle : qui en parle, comment et pourquoi ?

La masse d’informations, de promesses, de récits enjoués et critiques de l’intelligence artificielle est telle que le commentaire en continu confine à l’absurde. Cependant, tous ces récits ne s’équivalent pas : certains dominent les autres, ne serait-ce que médiatiquement. Le faux départ de Sam Altman de la société Open AI dont il est le patron, en témoigne : rarement un événement comme celui-ci aura fait couler autant d’encre, aura monopolisé l’énergie d’autant de journalistes et commentateurs. Non pas que l’information n’ait pas d’intérêt mais il convient toujours de se demander au détriment de quoi – de quelles autres informations importantes  – un traitement si hollywoodien est construit.

L’intelligence artificielle : comment en parle-t-on ? Comment pose-t-on ses problèmes ? Qu’en montre-t-on ? Qui a voix au chapitre pour en discuter ? Dans la lignée des quelques billets postés prédécemment, celui-ci revient sur ma veille récente avec des questions éparses mais qui suivent une même problématisation axée sur les modes de représentations publiques de l’intelligence artificielle et de son éthique.

L’ami virtuel et la fin de la critique du technosolutionnisme

Dans la quantité importante de papiers que je brasse chaque semaine autour des sujets technologiques, et une fois triées toutes les brèves se copiant les unes les autres, certains ressortent. L’article de Nicolas Six publié dans Le Monde et daté du 30 novembre « L’amitié artificielle, nouvelle frontière de l’intelligence artificielle » fait partie de ceux-là. Il compte parmi ces objets ambivalents qui empruntent cette ligne de crête où la critique des techniques laisse place à la description de ses usages. Une démarche utile, puisque c’est précisément ce qui permet la nuance, et par exemple de ne pas jeter « les écrans » (« lezécrans », même), avec l’eau du bain. 

Ce papier s’intéresse aux nombreuses applications des « amis virtuels » comme Replika ou Character.ai. Il précise que parmi les quelques centaines de millions d’utilisateurs (sic) de ces services, on trouve surreprésentées les personnes fragiles, ayant « des traumas émotionnels, des maladies graves, des troubles bipolaires » ou qui ont fait face à « des divorces ou des licenciements ». Quant à savoir si ces outils sont réellement utiles en santé, les experts ne tranchent pas encore. L’article non plus, mais on en ressort tout de même avec plusieurs témoignages poignants dont celui-ci : « Une femme de 75 ans, sans enfants, presque sans famille, assure que voir disparaître son IA « serait comme perdre un ami proche ». 

Je retiens de ce traitement médiatique que l’imaginaire socio-technique de l’ami virtuel se déploie sans friction. Les réflexions de Bernard Stiegler sur ce qu’est l’amitié, et sur le danger de transformer ce « bien le plus précieux » en pulsion indexée sur le retour sur investissement, sont loin derrière nous. C’était il y a à peine 10 ans. Au moment même où Evgeny Morozov lançait le concept de « solutionnisme technologique », certes ancré dans une longue histoire de critiques des techniques mais qui eut le mérite de s’appliquer au numérique, un terrain alors peu scruté par les sciences humaines. La formule a fait florès et certains exemples de Morozov reviennent souvent, comme la fourchette connectée par exemple, qui permettrait de résoudre l’obésité. Car c’est bien cela que fait le solutionnisme technologique : sur-responsabiliser les individus pour les problèmes sociaux, et de plus en plus environnementaux, qu’ils rencontrent  ; ce qui revient dans le même temps à déresponsabiliser les États et à légitimer le cas échéant leur désengagement.

Peut-être existe-t-il très marginalement une utilité aux amis virtuels dans le domaine médical. Peut-être se déploient-ils dans un paysage relationnel ruiné, où le simple fait de rencontrer les autres et de se faire aider est devenu impossible. En tout état de cause, cet avenir façon “Her”, présenté avec une décomplexion de plus en plus grande, invite à penser que l’ère de critique du technosolutionnisme était peut-être juste un accident de l’histoire. La fascination semble là encore, l’emporter. Quant aux « amis » que proposent ces services, il faudra voir dans quelle mesure ils sont « réellement virtuels » et pas juste délocalisés à l’autre bout du monde. Sans parler du coût énergétique de toute cette machinerie. Pour me faire un peu plus cynique : notre maison brûle et nous parlons à des agents conversationnels.

De l’annotation à la question du libre-arbitre 

Il y a en effet peu de chances que les amis virtuels de demain tiennent seulement dans des data-centers neutres en carbone. Là comme ailleurs, les intelligences artificielles sont et seront alimentées, maintenues et corrigées en permanence par des petites mains. Je suggère à ce titre de visionner une intervention très intéressante de Thomas Le Bonniec (Télécom Paris), qui revient sur son expérience de micro-travailleur (annotateur) et ses recherches, à l’invitation du European Trade Union Institute (ETUI). Dans le grandes lignes, ce micro-travail sert à préparer l’IA (par exemple en étiquetant des données), vérifier la qualité des résultats et parfois même, à imiter l’IA (on parle dans ce cas, de « fraude à l’IA » : vous croyez parler à un robot mais ce sont des humains derrière).

Quoi qu’il en soit et en dehors de ces éléments bien documentés, Thomas Le Bionnec a quelques riches réflexions, rappelant notamment que les gains de productivité promis par « les IA » reposent sur une forme de délocalisation cachée du travail. Aussi, – je rajoute – des formules triviales comme « rendre le travail obsolète » ou « remplacer des tâches » tendent à occulter le fait qu’il y a (aussi) eu déplacement de la force de travail. De ce point de vue, on pourrait penser l’IA comme une forme de délocalisation-as-a-service.

Par delà le fait que nombre des entreprises qui recourent à ces services d’annotation le font probablement en violation du droit, rappelle Le Bionnec, cette occultation contribue à donner une image faussée de la réalité matérielle qu’est l’intelligence artificielle. J’en faisais mention lors d’une journée organisée par la CNIL sur le thème « IA et libre-arbitre : sommes-nous des moutons numériques ? » : s’il y a bien un point aveugle aux régulations en matière d’IA, c’est bien à l’endroit des ses conditions de production, et des effets sociaux et environnementaux que celles-ci occasionnent. Peut-on aborder la question du « libre arbitre » des utilisateurs finaux, sans poser celle de l’extraction de minerais et de la division internationale du travail qui sous tend ces IA ? Cette question montre l’étendue du fossé qui sépare différentes conceptions éthiques de l’IA.

Schismes dans les éthiques de l’IA 

Dans un article synoptique plutôt efficace, « Les quatre éthiques de l’intelligence artificielle », Thierry Ménissier rappelle ainsi qu’il existe bien plusieurs manières d’appréhender l’éthique de l’IA. Du simple code de conduite de l’ingénieur – sa déontologie – aux questionnements profonds sur les agencements sociaux qui permettent l’existence même des intelligences artificielles, (de la mine de lithium au smartphone dans nos poches). Ménissier pointe le fait que ces différentes sphères éthiques collaborent assez peu : « il existe une tension entre le « minimalisme » de l’éthique informatique (visant à limiter les nuisances possibles provoquées par les artefacts) et la tendance « maximaliste » de l’éthique des usages de l’IA (invitée à se prononcer sur le caractère éthiquement pertinent de telle ou telle implémentation de systèmes d’IA dans la réalité sociale). »

Il ne faudrait cependant pas s’étonner de ce manque de collaboration, assez directement indexé sur le degré de politisation des éthiques citées. Interroger le mode de socialisation d’un robot, ou réparer un biais algorithmique est une chose. Interroger toute une chaîne d’approvisionnement elle-même construite sur des siècles de relations internationales en est une autre (NB : les deux se rejoignent parfois. Les biais raciaux par exemple, s’inscrivent aussi dans l’histoire, coloniale). Il y a bien une gradation politique entre ces différentes éthiques. Le livre Quelle éthique pour l’ingénieur ?, de Laure Flandrin et Fanny Verrax l’illustre très bien. Si les chercheuses rappellent que l’éthique ne dispose pas d’une définition unique, elles montrent aussi que des questions de surface, peuvent découler des considérations politiques profondes. La déontologie d’un ingénieur par exemple, peut le conduire à démissionner, mais les conflits éthiques peuvent dépasser cette pure sphère déontologique et embrasser d’autres champs, d’autres questionnements (l’utilité sociale, l’environnement, etc.).

Au-delà du fait que plusieurs éthiques existent et soient investies par différents acteurs, « Qui parle de quoi et pourquoi ? » en matière d’éthique de l’IA est probablement la question la plus structurante. Je me contenterai ici de paraphraser Kate Crawford (dans Contre Atlas de l’IA, 2022, Zulma, p. 260) : « Quand quelqu’un parle « d’éthique de l’IA », nous devrions évaluer les conditions de travail des mineurs, des fournisseurs et des crowdworkers. Quand nous entendons le mot « optimisation », nous devrions demander s’il s’agit d’outils pour le traitement inhumain des immigrés. Quand les gens applaudissent « l’automatisation à grande échelle », nous devrions nous rappeler l’empreinte carbone qui en résulte, alors que la planète est déjà soumise à un stress extrême. ». À revers, quand quelqu’un ne parle pas de tous ces sujets, alors nous devrions nous demander pourquoi.

Mieux montrer l’intelligence artificielle

Occulter les conditions de production de l’intelligence artificielle, poser les questions éthiques qui interrogent partiellement seulement sa réalité sociale et matérielle : voilà de quoi restreindre nos perceptions des progrès majeurs qui nous entourent. Voilà de quoi nous éloigner d’une culture technique, comme celle à laquelle appelait par exemple le philosophe Gilbert Simondon, nous invitant à devenir « mécanologue », pour connaître, apprécier, entretenir, maintenir et respecter nos œuvres techniciennes. Il militait d’ailleurs pour supprimer la distinction entre éducation technique et éducation humaniste, afin de ne pas établir de hiérarchie entre les deux.

Cela pourrait commencer par une description physique plus juste de nos objets techniques, et de l’intelligence artificielle. L’épisode de l’émission Le dessous des images « Et Dieu créa l’IA » est à cet endroit tout indiqué. Il y est rappelé que l’IA est bien souvent représentée par des visuels pétris de références religieuses, se référant à l’idée du robot, de l’infini, de l’univers en expansion, etc. Le fond de couleur bleu est également très prisé. La composition d’ensemble nous projette dans un imaginaire futuriste, rassurant, comme l’explique Rebacca Swift, vice-présidente du contenu créatif chez Getty images. Toutefois, ces choix graphiques ne participent certainement pas de la démystification de l’IA.

Car ces images sont très éloignées de la réalité technique et sociale de l’IA, rappelle la journaliste Sonia Devillers. Le second invité, le sociologue Antonio Casilli, rappelle quant à lui que ces représentations ont toujours été utilisées pour créer un effet de merveille, même si dans le cas de l’intelligence artificielle, l’utilisation de robots humanoïdes ne sonne pas comme une évidence : les IA sont d’abord et avant tout des processus dématérialisés.

Lauren Collee posait une question similaire concernant la représentation graphique d’internet sur Google Images. Pourquoi écope-t-on toujours de visuels représentant les réseaux comme une sorte de constellation de nœuds que relient des flux brillants dans un vide intersidéral surplombant le globe ? Certes, c’est plus ou moins le cas maintenant avec Starlink, mais internet, c’est aussi et avant tout des câbles sous-marins, des data-centers, des mines à ciel ouvert, des montagnes de déchets. 

On aurait tort de négliger la force de ces icônes (littéralement). Ou encore d’éviter de relier leur usage aux points évoqués précédemment concernant l’occultation des travailleurs de l’IA. Poser les bonnes questions commence par le fait de bien se figurer les systèmes, de les réinscrire dans l’histoire des territoires où ils sont façonnés. Ce problème du « Pouvoir trompeur des métaphores de l’Internet » (comme celle du “cloud” par exemple) est heureusement de longue date identifié. Certains s’essaient à représenter les technologies d’une manière qui reflète plus fidèlement ce qu’elles sont réellement, et sans déperdition sur le plan qualitatif, comme le site Better Images AI (cité dans l’émission d’Arte). Je ne me lasserai pas non plus de donner à voir « l’iconographie pour une tech intelligible » qu’avait produite le designer Thomas Thibault dans un même registre.

Qui parle de l’IA ?

Si je m’arrête un moment, nous avons traversé les questions suivantes : de quoi parle-t-on quand on parle d’IA ? Comment cadre-t-on les questions éthiques à propos de l’IA ? Comment représente-t-on l’IA graphiquement ? Une dernière question semble naturellement boucler cette boucle : qui parle de l’IA ? 

Un détour par l’actualité montre toute l’importance du sujet. Et notamment une sortie récente du chercheur en intelligence artificielle et « Scientifique en chef de l’IA » chez Meta, Yann Le Cun qui a affirmé que « Ce n’est pas parce qu’on élabore des machines puissantes qu’elles seront dotées d’une volonté de puissance. En tout cas, une machine ne sera jamais dominante ‘par accident’ » avant d’ajouter que l’IA pourrait conduire l’humanité vers un « nouveau siècle des Lumières ». 

On pourrait épiloguer longtemps sur la nécessité d’employer de telles métaphores prophétiques ou de jouer aux historiens-futurologues (a fortiori sans aucune formation académique idoine). Ou encore de prétendre que les modèles de langage open source ouvriront une nouvelle ère d’abondance et de connaissance (1/ le modèle LLaMA de Meta est loin d’être open source et 2/ on ne voit pas bien en quoi les publicités sur mesure mènent aux Lumières). Enfin, l’IA s’inscrit déjà dans des rapports de pouvoir et de domination que Yann Le Cun ne peut pas ignorer. Poser le futur en des termes si maximalistes (Lumières vs ombre) revient à participer à ce dilemme vide de sens entre technofantasme et technopanique

Mais encore une fois la question n’est pas là. Elle se loge dans les modes de sélection médiatique. Comme le rappelaient Guillaume Dandurand, Fenwick McKelvey et Jonathan Roberge dans un article publié sur le site The Conversation cet été : l’IA profite d’une couverture partiale des médias. Les chercheurs qui ont contribué à l’initiative Shaping AI, ont analysé les articles de journaux publiés sur le sujet entre 2012 et 2021, au Canada. Leur étude montre que l’IA est médiatiquement représentée comme avantageuse politiquement et économiquement, passant au second plan les dynamiques de pouvoir et intérêts qui s’y logent. Cela n’est pas sans lien avec le type de personnes interrogées pour venir en parler, principalement des experts qui y sont favorables, en particulier des informaticiens. « Les spécialistes des sciences sociales brillent par leur absence » écrivent les auteurs. De manière générale, les voix critiques sont absentes du paysage médiatique, « Les opinions critiques les plus fréquemment citées sont celles du regretté physicien Stephen Hawking, à qui on attribue 71 mentions » (de quoi contribuer d’ailleurs, à une polarisation technofantasme / technopanique bien peu utile).

Comment mieux parler de l’IA ? L’équipe de Shaping AI fait plusieurs recommandations (mais je vous invite vraiment à aller parcourir le rapport), qu’il s’agisse d’investir dans un journalisme tech de qualité et moins enclin à suivre la hype ou de faire un effort de diversification des sources en passant par le fait d’éviter de traiter de l’IA comme une prophétie, un conseil que pourrait suivre Yann Le Cun.

Image en tête d’article Emily Rand & LOTI / Better Images of AI / AI City / CC-BY 4.0

 

S’abonner
Notifier de
guest
4 Commentaires
Inline Feedbacks
View all comments
Hubert Guillaud
4 mois il y a

Juste en complément, le chapitre français de ShapingAI a également accompli une étude sur l’accueil de l’IA par la presse en France qui montre que les questions de l’IA liées à la justice, la surveillance et l’éducation génèrent plus d’articles critiques que les autres domaines (santé par exemple) : https://medialab.github.io/ShapingAI/#medias

trackback

[…] Éthique et intelligence artificielle : qui en parle, comment et pourquoi ? (maisouvaleweb.fr) […]