Le 8 décembre dernier, l’Union européenne parvenait à un accord politique sur la régulation de l’intelligence artificielle : le fameux AI Act. Depuis le dépôt de la proposition de règlement par la Commission européenne en avril 2021, l’Union s’inscrit dans une approche de la régulation centrée sur les risques, notamment en termes d’atteinte aux droits fondamentaux des individus, et ce à partir des trois catégories de « risque inacceptable », de « risque élevé » et de « risque limité ». Comme stipulé sur son site internet : « La priorité du Parlement [européen] est de veiller à ce que les systèmes d’IA utilisés dans l’UE soient sûrs, transparents, traçables, non discriminatoires et respectueux de l’environnement. » A cet égard, Caroline Lequesne, maîtresse de conférence en droit public à l’Université Côte d’Azur, affirme que les interdictions prévues par le futur AI Act sont « sommes toutes classiques », mais ce « au départ d’une approche […] proprement européenne » dans laquelle sont pris en compte des risques intangibles comme ceux relatifs aux droits fondamentaux, à la vie privée, à la dignité et aux vulnérabilités.[1] Il serait toutefois regrettable que cette approche juridique, visant par principe à fonder les critères des usages permis et défendus de l’IA, renforce l’idée que la technologie est politiquement, socialement et moralement neutre. Pourquoi ? Car contrairement à une idée largement répandue, les effets d’une technologie, en particulier ses impacts moraux, ne dépendent pas uniquement de la façon dont nous nous en servons.
Un texte de Julien De Sanctis, docteur en philosophie et philosophe chez Thaé*
Le « neutralisme technologique » n’existe pas
Disqualifiée depuis longtemps par l’histoire, les sciences sociales et la philosophie, la thèse dite de la « neutralité axiologique [2]» des techniques reste toutefois plus que répandue dans le monde techno-économique et, par conséquent, dans le discours de nombreux expert.es sollicité.es par les médias grand public. Cette thèse affirme que les technologies ne sont ni bonnes ni mauvaises en elles-mêmes et que seuls nos usages permettent de les évaluer moralement. Au-delà des problèmes théoriques qu’il soulève, le neutralisme technologique a ceci de problématique qu’il réduit le champ de l’éthique à la régulation des usages et n’interroge pas ou très peu les techniques avant leur mise sur le marché, tout en limitant l’après aux modes d’utilisation. Les valeurs embarquées par conception (by design) « dans » les artefacts, elles, ne sont pas questionnées. En ce sens, la soi-disant neutralité axiologique des techniques peut devenir un outil rhétorique assez efficace pour justifier la non-régulation a priori des « innovations » technologiques et laisser se développer le darwinisme techno-économique que nous connaissons actuellement. Le neutralisme technologique conduit également à sur-responsabiliser les individus – et à son corolaire qu’est la sous-responsabilisation des systèmes productifs – puisqu’il postule, dans la droite ligne d’une certaine interprétation de l’humanisme des lumières, que l’humain est un être de raison capable de déterminer sa volonté et ses actes indépendamment des influences « extérieures ». Dans ce schéma de pensée, les problèmes ne viennent jamais des technologies, mais seulement de celles-et ceux qui les utilisent. Une telle position occulte notamment le fait que toute technologie sert des intérêts socio-politiques quels qu’ils soient et que ces intérêts ne sont pas neutres par définition, notamment parce qu’ils orientent la conception. Je voudrais donc donner de la visibilité à la thèse adverse, celle de la non-neutralité axiologique des artefacts, et détailler les différents sens qu’elle peut avoir. Et pour ce faire, partons d’abord d’un exemple précis de discours aux implications diverses.
L’IA générative un outil comme les autres et parmi d’autres ?
Le 10 juin 2023, le Grand face-à-face de France Inter recevait Luc Julia, co-concepteur de l’assistant vocal Siri et actuel directeur scientifique du groupe Renault. La séquence commençait sur ces mots de l’animateur Ali Badou :
« Nous sommes aujourd’hui au Musée des Beaux-Arts de Chartres. On est entouré de chefs-d’œuvre, on est entouré de tableaux, on est entouré de sculptures qui sont signées par des artistes. Luc Julia, imaginez, on se projette dans 50 ans, qu’est-ce qui nous garantit, ici, au Musée des Beaux-Arts, que nous ne serons pas entourés de tableaux générés par Midjourney et, à la limite, qu’est-ce que ça changera ? »
Ce à quoi l’invité répond :
« Rien. Ça changera rien parce que en fait il faut comprendre qu’au lieu d’utiliser un maillet et un burin – je sais pas exactement ce qu’on utilise pour faire des sculptures – on utilisera d’autres outils ; et ces outils ce seront des outils d’intelligence artificielle ou pas, c’est-à-dire qu’on utilisera ce qu’on aura envie et on recevra en retour des œuvres, qu’elles soient faites par des burins [ou avec des algorithmes] »
Précisons, pour commencer, que la nuance introduite par ce « ou pas » est tout à fait salutaire car elle écarte d’emblée la rhétorique du déterminisme technologique, très répandue dans les sphères techno-économiques. Cette rhétorique souvent grossière s’appuie sur l’idée que la technologie suit une loi d’évolution linéaire inexorable et que la marche du « progrès » technique – autre grigri verbal sans cesse agité – ne saurait être stoppée. « On n’arrête pas le progrès », comme dit l’adage ou plutôt le slogan qui, selon l’historien François Jarrige, fut inventé aux alentours de 1890 par une presse automobile faisant face au rejet suscité par son industrie[3]. Il est d’ailleurs assez savoureux de constater que les envolées techno-déterministes – celles qui ne croient pas au « modèle Amish » – viennent souvent des bords qui se réclament du libéralisme. De là à prôner la liberté de ne pas avoir le choix, il n’y a qu’un pas. Mais revenons à la réponse de Luc Julia pour examiner un second point nettement plus problématique de son discours, à savoir l’idée que l’IA ne « changera rien » à l’art et à ses pratiques. Comment justifier une telle affirmation ? L’ingénieur déroule son argumentaire en donnant l’exemple du logiciel de génération d’image Midjourney[4] et commence par une distinction bienvenue entre générativité et créativité. Donnons-lui à nouveau la parole :
« La créativité, elle reste du côté de l’humain […]. Quand vous utilisez Midjourney, vous allez utiliser un truc qui s’appelle un prompt[5]. Un prompt, c’est un endroit où vous allez écrire un texte qui est ce que vous voulez faire générer à la machine ; et donc la créativité elle se trouve dans le prompt. Imaginez que je dise à Midjourney : « Dessine-moi une vache verte sur la Tour Eiffel ». Midjourney va me générer une image de vache verte sur la Tour Eiffel. Mais l’idée de la vache verte sur la Tour Eiffel, qui est-ce qui l’a eue ? C’est pas Midjourney, c’est moi. C’est moi qui ai eu cette représentation mentale de la vache verte sur la tour Eiffel et donc je l’ai rentrée et l’IA m’a généré quelque chose qui n’est certainement pas d’ailleurs ce que je voulais et donc je vais continuer à réitérer, utiliser l’outil pour refaçonner cette vache verte sur la tour Eiffel. »
L’argument est donc le suivant : la créativité restant du côté de l’humain, les IA comme Midjourney ou chatGPT ne changeront rien à l’activité artistique et, de la même façon qu’ils peuvent signer leurs œuvres lorsqu’ils utilisent un pinceau, un crayon, un burin, un clavier ou encore un appareil photo, les artistes pourront continuer de le faire avec les IA. Au cœur de cet argument se tient l’idée selon laquelle ces systèmes d’intelligence artificielle ne sont que des outils parmi d’autres permettant de s’adonner, par exemple, à une activité artistique.
Le raisonnement pose au moins deux problèmes. Premièrement, Julia semble réduire l’activité artistique à la créativité, c’est-à-dire, ici, à la seule capacité d’avoir l’idée de la chose à créer. Or, l’art n’est-il pas aussi création au sens de réalisation, de mise en forme de l’idée face à un réel qui résiste ? Cette création n’est-elle pas aussi ce qui fait l’artiste en tant qu’il se transforme lui-même par la mise en forme de son idée ? A cet égard, il me semble que l’IA générative propose une automatisation complète du processus de création qui n’est pas sans poser question. La multiplication des itérations dont parle Julia est-elle assimilable à de la création ? Quoi qu’il en soit, l’idée n’est pas de dire que Midjourney permet de produire effectivement de l’art ou non – l’exemple renvoie en réalité à la question de savoir « où » se situe l’art : dans l’idée, dans la mise en forme ou dans les deux ? –, mais plutôt de saisir l’occasion d’interroger les savoirs que nous déléguons aux machines et ceux, s’il y en a, que nous développons en contrepartie de cette délégation. La question est cruciale car, contrairement à une affirmation un peu péremptoire en vogue, l’extrême technicisation de nos vies ne s’accompagne pas nécessairement, loin de là, d’un accroissement de nos savoirs.
La seconde difficulté tient à l’affirmation selon laquelle l’IA générative ne « changera rien » à l’activité artistique au motif qu’elle est un outil parmi tant d’autres que l’artiste peut mobiliser pour créer une œuvre. Autrement dit, l’IA n’est qu’un des nombreux moyens qui permet d’atteindre la fin, de matérialiser l’intention humaine qu’est l’œuvre d’art. Or, cette conception purement instrumentale des techniques comme ensemble de moyens au service de fins est le substrat théorique à partir duquel se déploie la thèse du neutralisme technologique dont je souhaite présenter la critique.
Typologie de la non-neutralité des techniques
Dire que les technologies ne sont pas neutres moralement et politiquement ne revient pas à nier l’importance de la façon dont nous les utilisons. Il s’agit plutôt de reconnaître que les usages ne sont que la partie émergée de l’iceberg technologique et que les effets produits par nos artefacts les dépassent de beaucoup. Dans ce qui suit, je propose de dresser une typologie en 3 catégories de cette non-neutralité axiologique pour expliquer les divers phénomènes auxquels elle renvoie. Les deux premières s’appuient respectivement sur les dimensions idéologique et comportementale de la non-neutralité des techniques. Le troisième, quant à lui, renvoie à la programmation explicite de règles morales dans certains artefacts. Détaillons tout cela.
La non-neutralité idéologique
Le terme d’idéologie est ici à prendre au sens large d’« Ensemble plus ou moins cohérent des idées, des croyances et des doctrines philosophiques, religieuses, politiques, économiques, sociales, propre à une époque, une société, une classe et qui oriente l’action. »[6]
Dans cette perspective, la non-neutralité idéologique des techniques peut le fait que le design des artefacts est orienté par des choix politiques qui, du même coup, orientent la société en l’élaborant sur le plan technique. On peut citer l’exemple, parmi tant d’autres, des bancs publics équipés d’accoudoirs que le philosophe Robert Rosenberger qualifie de « technologie contre les sans-abris »[7] puisqu’ils sont conçus pour empêcher les SDF de les utiliser comme lits. La construction matérielle du réel par nos technologies est foncièrement politique, notamment parce qu’elle visibilise certaines choses et en invisibilise d’autres. Dans l’exemple choisi, nul doute que l’usager ou l’usagère type de ces bancs percevra les accoudoirs comme un dispositif de confort et non comme un dispositif d’exclusion d’une certaine catégorie de population ; pourtant, celui-ci intègre tacitement l’idée que les SDF sont, a minima, indésirables. On voit donc ici que de simples bancs sont porteurs par design d’un ordre social implicite pour l’usager.e type, mais non moins précis et opérant. Citons également l’exemple des fameux algorithmes dits de justice prédictive. On sait aujourd’hui que ces algorithmes, utilisés aux Etats-Unis pour détecter les risques de récidives, sont structurellement défavorables aux populations noires puisqu’ils fonctionnement à partir de données historiquement biaisées dans lesquelles ces populations sont surreprésentées. Ici, c’est un biais raciste qui est encodé dans la technique et, avec lui, une certaine représentation des populations noires comme plus récidivistes que les autres. Dernier exemple : le métro parisien, connu pour son manque d’accessibilité aux personnes âgées et/ou en situation de handicap. Autrement dit, le métro matérialise un ordre social où seule les personnes valides sont représentées. Ce défaut d’inclusivité dans la conception des accès au réseau montre très bien comment nos techniques, qu’elles soient infrastructurelles ou non, procèdent d’un cadre normatif qu’elles peuvent renforcer une fois insérées dans nos existences.
La non-neutralité idéologique signifie également qu’une technique ou qu’un système technique exige, en vertu de sa nature, une organisation socio-politique déterminée. L’exemple typique est ici celui des centrales nucléaires donné par Langdon Winner dans son célèbre article « Do artifacts have politics? » (1980). En effet, la dangerosité de l’énergie atomique suppose la mise en place d’un système hautement sécurisé et donc d’un management très hiérarchisé et autoritaire.
Enfin, dire que les technologies ne sont pas neutres idéologiquement, peut renvoyer au fait que les artefacts sont constitutifs de nos expériences en tant qu’ils médiatisent nos perceptions et nos actions. Ce faisant, ils participent à l’entretien ou à l’évolution culturelle et morale d’une époque. L’exemple de l’échographie analysé par le philosophe néerlandais Peter-Paul Verbeek est très parlant sur ce point. L’introduction de cette technologie en obstétrique a profondément modifié l’expérience de la grossesse et son interprétation, en particulier sur les points suivants :
- Le fœtus est « distingué » du corps de la mère, ce qui lui confère un nouveau statut : il est désormais un être à part entière et des décisions le concernant peuvent être prises précisément en vertu de cette distinction ;
- Le fœtus intègre un contexte de normes médicales qui font de lui un « patient » potentiel (en cas de trisomie ou de problème avec le cordon ombilical, par exemple) et transforment la grossesse en « processus » médicalisé ;
- La grossesse, dans sa dimension processuelle, devient en partie une question de choix : des analyses peuvent être effectuées et déboucher sur différents types d’interventions ;
- Le rôle du père est considérablement modifié : il a désormais un certain accès à ce que seule la mère peut naturellement ressentir ;
- Les parents deviennent décisionnaires : l’échographie peut favoriser l’IVG comme elle peut renforcer le lien émotionnel au futur enfant par le biais des images qu’elle délivre.
La non-neutralité comportementale
La non-neutralité comportementale peut être synonyme de nudge, c’est-à-dire d’incitation comportementale par le biais d’un design déterminé. A cet égard, on peut citer l’exemple des marches d’escaliers qui reproduisent les touches d’un piano. Leur objectif est d’inciter à emprunter les escaliers plutôt que les escalators pour fluidifier le passage et/ou favoriser l’activité physique. Il existe également des formes d’orientations comportementales moins « douces », qu’on peut qualifier de prescriptives, à l’instar du ralentisseur analysé par Bruno Latour parmi d’autres exemples aujourd’hui très célèbres en philosophie et en sociologie des techniques. Le dos d’âne ou « gendarme couché » est un artefact auquel on a délégué la charge de « veiller » au respect du code de la route, notamment pour assurer la sécurité des enfants en sortie d’école. Un ralentisseur est donc un dispositif matériel investi d’une forme d’autorité à la fois morale et juridique. Les fameux « dark patterns »[8] illustrent aussi très bien l’idée de non-neutralité comportementale. Un dark pattern est une interface numérique conçue pour tromper ou manipuler volontairement celles et ceux qui l’utilisent, notamment pour faire en sorte qu’ils restent plus longtemps sur la plateforme en question ou pour obtenir leur « consentement » de façon détournée afin de collecter leurs données personnelles (au moyen, par exemple de la célèbre « question piégée », consistant à cocher une case pour ne pas bénéficier d’un service comme une newsletter).
La programmation morale des artefacts
Enfin, la non-neutralité axiologique peut aussi renvoyer à la programmation de règles morales dans le code de certains artefacts amenés à prendre des « décisions » en l’absence de toute supervision humaine. Dans le champ universitaire, cette programmation constitue l’objet de recherche de la machine ethics[9]. L’exemple devenu typique par sa surmédiatisation est celui des véhicules dits autonomes et des différentes règles morales qu’ils devraient appliquer pour sélectionner un type d’accident plutôt qu’un autre au sein d’une même situation (e.g. dévier sa course pour sauver ses 3 passagers, mais écraser 2 piétons ; épargner des piétons jeunes plutôt que des passagers âgés etc.).
Enrichir notre conception collective de l’éthique des techniques
Les différents points évoqués sont cruciaux pour comprendre en profondeur l’impact des technologies sur nos modes d’organisation, nos représentations et, plus largement, nos existences. Ils fournissent un prisme d’analyse par lequel toute réflexion éthique ou socio-politique devrait passer – outre celle dédiée aux usages, bien sûr – pour évaluer les techniques que nous déployons. Qu’on se situe sur le plan éthique ou politique, penser la régulation de l’IA sous l’angle des risques, c’est viser son acceptabilité plus que sa désirabilité. Or l’éthique, depuis l’antiquité, consiste à interroger les conditions d’une vie moralement désirable[10] et non simplement acceptable. A cet égard, comprendre comment nos technologies participent à élaborer moralement et politiquement le monde que nous habitons au-delà de leurs seuls usages constitue la première étape d’une réflexion dédiée à leur dignité et donc à leur désirabilité.
***
*Julien De Sanctis est docteur en philosophie. Sa thèse CIFRE portant sur les robots sociaux, il a travaillé pendant 4 ans dans une entreprise de robotique en tant que chargé de recherches en éthique. Il travaille aujourd’hui pour l’agence de philosophie Thaé.
***
[1] https://www.radiofrance.fr/franceculture/podcasts/le-meilleur-des-mondes/encadrement-de-l-intelligence-artificielle-l-europe-va-t-elle-trop-vite-7892013 (à partir de 12:02).
[2] En philosophie comme en sociologie, l’axiologie renvoie à l’étude des valeurs morales (axia ou axios signifiant « valeur », « qualité » en grec).
[3] Sur ce point et plus largement sur le techno-déterminisme, on peut notamment renvoyer au livre de Jarrige On arrête (parfois) le progrès aux éditions L’Échappée. Pour un accès plus rapide à quelques idées phrases, on peut aussi écouter cette émission sur France Culture ou encore celle-ci sur France Inter. Enfin, je me permets de renvoyer à une intervention que j’ai moi-même effectuée sur ce sujet il y a quelques années maintenant.
[4] Midjourney est un logiciel de génération d’image
[5] Une « invite » en Français.
[6] https://www.cnrtl.fr/definition/id%C3%A9ologie
[7] Robert Rosenberger, Callous objects: Designs against the homeless, University of Minnesota Press, 2017
[8] Qu’on traduit parfois par « interface truquée ».
[9] Voir, par exemple, Wendell Wallach & Colin Allen, Moral machines. Teaching robots right from wrong, Oxford Universitty Press, 2008.
[10] C’est-à-dire digne d’être vécue.
[…] De la non-neutralité des IA et, plus largement, de « la » technique (maisouvaleweb.fr) […]
[…] De la non-neutralité des IA et, plus largement, de « la » technique. 2 : Yann Sordet dans Histoire du livre et de l’édition, Septième partie – Les […]
[…] les sciences sociales et la philosophie, la thèse dite de la « neutralité axiologique [2]» des techniques reste toutefois plus que répandue dans le monde techno-économique et, par […]