Qui sont les éthiciens de l’intelligence artificielle ?

Dans un papier en pre-print publié sur SSRN, “Who is an AI Ethicist? An Empirical Study of Expertise, Skills, and Profiles to Build a Competency Framework”, des chercheurs s’interrogent sur les profils des éthiciens de l’intelligence artificielle : qui sont-ils ? Ou plutôt, quelles devraient être leurs compétences, démontre plutôt l’article, qui amorce une discussion plutôt rare, en comparant l’expertise des éthiciens de l’IA à celle des consultants en éthique dans les contextes clinique et de la santé. Quelques éléments sur ce travail exploratoire.

Éthicien de l’IA, un job en vogue

“Pour paraphraser Kant, les principes et les processus sans professionnels qualifiés sont vides, tandis que les professionnels qualifiés sans ces principes et processus sont aveugles.” Le profil d’éthicien de l’IA (ou “AI Ethicist”) est à la mode : l’IA implique des effectivement des risques de cet ordre, qui font parfois surgir des controverses : biais algorithmiques, modification des fiches de poste, etc. Les quelques études s’étant penché sur leurs profils font état d’une augmentation des offres d’emploi les concernant ou interrogent carrément leur utilité (avec l’argument suivant : des non éthiciens savent prendre des décisions éthiques aussi bien que des éthiciens), dans un champ où de toute manière, l’essentiel de la littérature sur l’éthique tend à montrer ses limites et son insuffisance, au regard des questions cruciales que pose aujourd’hui les systèmes d’intelligence artificielle et les industries numériques dans lesquels ceux-ci s’inscrivent. 

Sortis des débats sur la légitimité des démarches éthiques, la question des profils qui la mettent en œuvre reste entière. Elle ne fait pas consensus. Les éthiciens de l’IA sont des moutons à cinq pattes : ils doivent être pour certains armés de compétences techniques (savoir détecter des biais algorithmiques, améliorer l’explicabilité des systèmes), mais aussi légales, les faisant entrer de plain-pied dans la catégories des consultants juridiques. Le tout mâtiné de connaissances philosophiques, dont un éthicien ne peut décemment pas se passer. En synthèse, leur rôle est variable, et l’absence d’accréditation n’arrange pas l’affaire ni n’améliore leur connexion avec le marché du travail.

Le papier de Cocchiaro, Morley, Novelli, Panai, Tartaro et Floridi adopte dès lors une double approche, à la fois empirique et normative. Par-delà la description, il s’agit donc d’un apport quasi-programmatique censé répondre à la question : à quoi devraient ressembler les éthiciens de l’IA. Du point de vue méthodologique, les auteurs ont

Sont allés récolter des profils d’éthiciens sur Linkedin, en effectuant des recherches avec les termes “AI Ethics” et “Digital Ethics”, dans la zone européenne, où s’appliquent des réglementations telles que l’IA Act. Sont sélectionnés les personnes qui utilisent ces termes dans leur profil ou la description de leur profil. L’exercice a certes ses limites (il exclut les personnes qui occupent de telles fonctions sans les nommer, d’autres qui ne sont pas sur Linkedin), mais a l’intérêt de fournir une base de départ. Une première recherche est effectuée en avril 2023 et une seconde en avril 2024, permettant d’identifier quelques tendances. Leur nombre total passe de 3307 à 3718 en un an (+ 12 % en moyenne et dans le détail +19 % pour “AI ethics” et -4 % pour “digital ethics”). Pour le cas français par exemple, leur nombre passe de 351 en 2023 à 393 en 2024. Des recherches sont également effectuées sur le marché de l’emploi, en scrutant sur Google et Linkedin des annonces utilisant les mots-clés « AI Ethicist jobs », « AI Ethics jobs » et « Responsible AI jobs », les auteurs constatent là encore une tendance croissante d’une année à l’autre.

Quelles devraient être les compétences de l’éthicien de l’IA, demandent ensuite les auteurs, qui répondent en établissant une comparaison avec les éthiciens de la santé, domaine où la question s’est également posée dans des moments de l’histoire appelant à des régulations, sous le patronage de l’American Society for Bioethics and Humanities (ASBH) qui a présenté un “Core Competence Framework” (cadre de compétences clés) dès 1998, posant 3 compétences clés : compétences en évaluation et analyse éthique (par exemple, être capable de revoir une norme), compétences en processus (par exemple, identifier une catégorie de personnes à risque) et compétences interpersonnelles (délivrer une formation au personnel). 

Expertises de l’éthicien 

Pour monter un peu en généralité avant de se replonger dans ces compétences, les auteurs rappellent que l’éthicien de l’IA a un rôle qui s’apparente à celui d’un “raisonneur moral”, c’est-à-dire une personne engagée dans une forme particulière de raisonnement pratique axée sur le bien et le mal : “Ce rôle implique d’appliquer des principes moraux et des valeurs établies à des situations spécifiques afin d’identifier la voie d’action la plus éthique.” Les auteurs notent aussi de prime abord un point de vigilance : l’éthicien ne peut pas être un “évangéliste” (entendre par là, un promoteur des technologies) pour des raisons évidentes : l’obligation à promouvoir les produits de son organisation ne permet pas d’adopter un point de vue critique sur sa propre organisation, et donne lieu à une situation de conflit d’intérêt. 

Trois types d’expertise enserrent cette définition : l’expertise morale académique, l’expertise morale performative et l’expertise morale pratique.

L’expertise morale académique concerne plutôt les profils de philosophes. Il s’agit d’être capable d’explorer et de confronter les doctrines morales et la nature des croyances et des valeurs en jeu. Cette expertise éloigne parfois ses pratiquants du concret. Dans le domaine de la santé par exemple, une des questions liée à l’avortement est la personnalité juridique de l’enfant à venir, qui n’épuise pas les situations d’avortement qui sont très diverses (exemple : une femme qui refuse un avortement même si la naissance met en danger sa vie). 

L’expertise morale performative est ce qui permet de prendre la bonne décision dans une situation donnée, pour soi-même. À ne pas confondre avec l’exigence de cohérence, par exemple que les auteurs définissent par l’exemple : un expert en éthique sans éthique est “un cardiologue en surpoids”. 

L’expertise morale pratique permet d’effectuer des recommandations morales dans la vraie vie, et savoir les justifier. La question pratique s’est également posée dans le domaine de la santé ; les éthiciens sont-ils en mesure de fournir de telles recommandations pour informer un processus de décision ? Trois positions existent : 1) non seulement l’éthicien peut mais il doit effectuer des recommandations. 2) L’éthicien ne recommande pas mais doit trouver un consensus dans les parties en dissensus et 3) l’éthicien doit agir comme un facilitateur et élucider les valeurs des parties sans prendre position en cas d’incertitude (méthode privilégiée dans le domaine de la santé).

Cependant pour les auteurs, l’éthicien de l’IA ne peut pas être un facilitateur, et c’est la principale différence avec les éthiciens de la santé. En effet, les régulations dans le domaine de l’IA sont beaucoup plus floues que dans le domaine de la santé, où des décennies ont préjugé à leur établissement. Les éthiciens de l’IA travaillent dans un domaine encore instable, plus en tout cas que des questions telles que le don d’organes ou bien d’allocations des ressources de santé en cas de crise. En outre, les problèmes éthiques soulevés par l’intelligence artificielle sont souvent nouveaux, interviennent à des échelles vastes (toute la société), là où les dilemmes éthiques dans le domaine de la santé concernent le plus souvent des individus. L’éthicien de l’IA, pour les auteurs, doit aussi être un chercheur et un éducateur : être à la pointe de ce qui se fait pour se rendre le plus utile possible à leurs organisations et les rendre plus matures en matière éthique.

Il s’en suit un faisceau de compétences synthétisées dans un tableau : 

 

Pour chacun de ces points, il existe un ensemble de sous compétences associées (qui ressemblent beaucoup à des compétences de chef de projet, en réalité), ce à quoi les auteurs ajoutent un certain nombre de sous-domaines de connaissances qui devraient faire partie de la palette des éthiciens de l’IA, où on retrouve les questions féministes, les théories de la justice, les approches non occidentales, la connaissance techniques sur le machine learning, des connaissances juridiques, de gouvernance européenne, des connaissances en enseignement, interculturelles, etc. Une longue liste qui font ressembler l’éthicien de l’IA à un chef de projet formé en droit, en histoire, en sciences politiques et en ingénierie. 

La question la plus cruciale, pour les auteurs, reste celle de l’indépendance des éthiciens de l’IA. Ceux-ci sont amenés à étudier des questions qui vont à revers des objectifs de leur entreprise, à proposer des mécanismes de concertation chronophages voire mettant à risque la réputation de leurs employeurs. Dès lors, selon les auteurs, pour protéger les éthiciens de l’IA, les organisations ne devraient pas réduire leur rôle à un simple affichage de vertu ou à du « greenwashing » éthique. Les éthiciens de l’IA doivent être libres d’exprimer des points de vue critiques et ne pas être contraints de défendre les intérêts de leur employeur. En effet, une entreprise pourrait poursuivre un éthicien de l’IA si elle estime avoir subi des dommages financiers ou autres en raison de services de conseil ou d’accompagnement. Dans ce contexte, “des formes d’assurance responsabilité civile pourraient aider à atténuer ce type de pression.”

***

Cette première approche des profils et fonctions des éthiciens de l’IA me semble stimulante bien que limitée. Tout d’abord, l’article ne répond pas vraiment à la question posée, à savoir celle des profils de leurs profils : au-delà de leur nombre, on ne sait pas vraiment qui ils sont et d’où ils viennent. Nous ne savons pas plus sur quels problèmes ils travaillent, avec quels financements et dans quels départements des entreprises qui les emploient. Travaillent-ils avec la conformité, la R&D, le marketing et la communication ? Quelles études ont-il fait ? Ces éléments auraient pu apporter de précieux éclairages sur la réalité de leurs fonctions. 

Il n’est pas non plus question dans le papier, de relier leurs fonctions, d’une manière ou d’une autre, aux questions déontologiques ou relatives au lancement d’alerte (et tant qu’on y est, des questions environnementales). Dans une grosse entreprise, les projets impliquant l’usage d’intelligences artificielles et d’algorithmes, logiciels et programmes affiliés en tous genres, se comptent par centaine. L’éthicien – ou les éthiciens dans le meilleurs des cas, sont peu à même de tout envisager sans qu’une administration ad hoc ne se mette en place. Les controverses éthiques concernent aussi directement les ingénieurs et autres personnels directement impliqués dans ces projets, depuis lesquels pourraient remonter des alertes. 

À cet effet, un récent article de Dominique Boullier et Aurélie Jean publié dans AOC, “L’IA, l’éthique et la théorie des baïonnettes intelligentes”, plantait le problème d’une manière intéressante. Les auteurs invoquent la “théorie des baïonnettes intelligentes”, initiée en France au cours de la seconde guerre mondiale : “Le droit reconnaissait ainsi que toute action porteuse de dommages de la part d’une baïonnette (qui transperce un corps notamment) trouvait sa source dans une décision d’un acteur humain qui ne pouvait s’en détacher en attribuant la responsabilité à l’outil baïonnette supposé intelligent. Le soldat ne pouvait ainsi se considérer comme une simple baïonnette car il était supposé intelligent.”

Appliquée chez les concepteurs de l’IA, cette théorie les invite à se responsabiliser devant les demandes de leurs employeurs “dans un contexte de risques largement discutés”. Autrement dit, ces concepteurs devraient s’interroger sur l’usage fait de leurs créations, par rapport à ce qui aurait été initialement prévu. L’idée : éviter la dilution de responsabilité et rendre possible l’alerte quand quelque chose n’est pas socialement acceptable. Dans cette perspective, la responsabilité n’est pas diluée, pas plus qu’elle n’est concentrée dans l’éthicien, mais distribuée au sein de l’entreprise. 

Cette proposition ouvre elle-même un certain nombre de questions relatives aux limites du statut de lanceur d’alerte et à son accompagnement, à l’existence d’une sorte de “devoir de réserve” dans les entreprises privées, voire d’organisation collective des travailleurs pour faire valoir ces droits. On se rappelle des critiques lancées par certains salariés de Google sur le projet “Maven” de l’entreprise, consistant à doter les drones de guerre américains d’intelligences artificielles… Critiques qui conduisirent au passage à plusieurs démissions.

À ce titre et sans plus commenter ces papiers qui restent largement exploratoires, il est permis de penser que le statut de l’éthicien appelle avant tout à interroger le statut du salarié et sa capacité à s’organiser collectivement et sans risques dans les situations qui le méritent.

image en tête d’article Nadia Piet + AIxDESIGN & Archival Images of AI / Better Images of AI / AI Am Over It / CC-BY 4.0

S’abonner
Notifier de
guest
0 Commentaires
Inline Feedbacks
View all comments