C’est un papier intéressant que publient les sociologues Carlo Andrea Tassinari, Sara De Martino et Yann Ferguson dans la revue « Communiquer », où ils examinent trois cas d’usages d’agents conversationnels au sein de contextes professionnels, documentés par des entretiens avec usagers, usagères, concepteurs et conceptrices. L’idée générale est d’interroger les limites de la « moralisation » des machines communicantes, notamment au moyen de principes éthiques souvent figés et aveugles à la particularité des usages.
En très résumé, les auteurs commencent par une revue succincte des règles éthiques « universalistes » (piochées dans divers documents comme ce rapport de l’UNESCO, ou celui du Comité national pilote d’éthique du numérique), qu’ils mettent en tension avec une « éthique située ». Pour le dire plus simplement, il s’agit de passer les principes éthiques généralistes (autonomie, dignité, équité, etc.) au crible de situations plus fines où ces termes peinent à s’appliquer uniformément. L’éthique située, contrairement à ces principes universalistes pensés dans des arènes expertes, propose de faire participer les acteurs et actrices en situation à la définition des questions morales et éthiques.
Les auteurs se plongent dans des situations très concrètes. D’abord un chatbot bancaire, « Zoé », qui permet d’assurer une meilleure communication interne entre les commerciaux, les chargés des relations clients, et l’assistance, dans un contexte d’augmentation des appels. Un comité de co-conception composé de femmes a été créé pour éviter les biais de genre, et une « éthique de la discussion » a été mise en place à cette même fin. Malgré cela, le comité « allé tout droit vers l’anthropomorphisme et la genrification » de l’agent. C’est toutefois une manière de favoriser son acceptation, et une forme de reconnaissance : Zoé est à l’image de l’équipe, composée quasi-exclusivement de femmes. La genrification est donc « volontaire ».
Deuxième cas, Sphynx, « un agent conversationnel doté d’une interface vocale conçue pour permettre à des travailleurs-techniciens d’annoter, d’enregistrer et d’organiser leur travail sans devoir interrompre leurs interventions et tout en gardant les mains libres ». Le but : améliorer l’autonomie et l’efficacité, via une commande vocale ne comprenant qu’un certain nombre de mots. Malgré tous les efforts entrepris pour éviter l’anthropomorphisation (par exemple, le choix d’un animal comme logo), celle-ci émerge des travailleurs eux-mêmes, qui tutoient, insultent ou remercient la machine. Les auteurs concluent : « l’anthropomorphisation des agents conversationnels peut se manifester comme forme de résistance humaine à la robotisation de l’espace sonore du travail. »
Le dernier cas, Recrute+, est « un logiciel à base d’IA d’aide à la décision pour la sélection de candidat·e·s à un emploi. » Recrute+ est aussi censé être aligné sur les grands textes réglementaires de façon par exemple, à ne produire aucune discrimination. Les concepteurs sont persuadés de la justesse de leur modèle qui mesure à travers différents critères, l’adéquation entre le candidat et le poste. Ils arguent que les recruteurs sont, en revanche, en proie à des biais discriminatoires. Cette objectivité est cependant remise en question à la fois par les recruteurs et les candidats. Pour ces derniers, elle a un coût éthique : elle les catégorise alors même qu’ils refusent de répondre à des questions fermées. Les auteurs écrivent : « Dans cette perspective, l’élimination des biais de la machine, préoccupation des éthicien·ne·s, n’a pas une grande signification, car il n’y a pas accord sur la norme de justice qui doit prévaloir »
J’extrais deux citations de la conclusion, qui me paraissent confirmer les conclusions de nombreux travaux déjà réalisés sur la difficile applicabilité des principes éthiques « tels quels » à l’intérieur de situations de travail spécifiques : « la normativité éthique doit passer l’examen des situations pratiques auxquelles concepteurs ou conceptrices et utilisateurs ou utilisatrices sont confronté·e·s » et sans surprise, l’enquête montre « [l]’inconsistance de règles dictées en amont par des comités d’expert·e·s qui, par définition, fondent la légitimité de leur expertise précisément sur leur abstraction des pratiques d’usages, riches en valeurs fines, complexes, contestataires. »
Référence complète du papier :
Carlo Andrea Tassinari, Sara De Martino et Yann Ferguson, « Moraliser les machines communicantes. Des barricades morales à l’éthique située : trois cas d’usage de l’IA en milieu professionnel », Communiquer [En ligne], 39 | 2024, mis en ligne le 19 décembre 2024, consulté le 14 janvier 2025. URL : http://journals.openedition.org/communiquer/11933 ; DOI : https://doi.org/10.4000/12zln
Quelques références qui donnent envie de prolonger la discussion :
Debaise, D., Stengers, I. (2023). Au risque des effets. Une lutte à main armée contre la raison ? Les liens qui libèrent.
Grinbaum, A. (2023). Parole de machines. Dialoguer avec une IA. humenSciences.
Zacklad, M. et Rouveroy, A. (2022). L’éthique située de l’IA et ses controverses. Revue française des sciences de l’information et de la communication, (25). http://journals.openedition.org/rfsic/13204 ; https://doi.org/10.4000/rfsic.13204
Image : Yutong Liu / Better Images of AI / Joining the Table / CC-BY 4.0
[…] Éthique située et agents conversationnels : l’importance des contextes (maisouvaleweb.fr) […]