Ethics by design : comment penser l’éthique en technologie ? 

Dans le petit monde du numérique, l’éthique est sur toutes les lèvres. Les récents scandales à propos des données personnelles ont levé le voile sur les discriminations et atteintes à la liberté liées à certains systèmes numériques. En réponse, de nombreux acteurs des industries technologiques se sont dotés de chartes éthiques. S’il faut se féliciter de cette prise de conscience, force est de constater qu’une fois le mot lâché (« éthique »), les choses ne semblent pas toujours beaucoup plus claires qu’avant. A l’occasion de Ethics by Design, première conférence dédiée à la conception numérique responsable, renouons avec quelques questions clés : comment penser l’éthique en technologie ? Quels principes devraient guider son développement ? Qui devrait en être à l’origine ?

J’aurai le grand plaisir de co-animer un atelier autour des questions éthiques posées par certains services numériques lors de la conférence Ethics by Design, sous l’étendard de l’association Le Mouton Numérique et en partenariat avec Chiasma. C’est dans ce contexte que s’inscrivent ces réflexions, qui demeurent personnelles.

A propos d’éthique

Définir l’éthique est malaisé. De façon générale, on entend par là une démarche qui revient à rechercher des méthodes adaptées dans un contexte donné et en lien avec le principe d’humanité, dans une perspective de responsabilité collective. La distinction d’avec la morale demeure complexe et sujette à de nombreux débats, si l’éthique relève d’une réflexion argumentée, la morale se réfère à un ensemble de valeurs et de principes qui permettent de différencier le bien du mal. La phrase de Peter W. Singer, « your ethics are not my ethics » (ton éthique n’est pas la mienne) en dit long sur les variations de la perception de l’éthique, notamment au regard des représentations culturelles. A cela il faut ajouter que l’éthique n’est pas immuable : elle varie selon l’époque et suivant la prise en considération de nouvelles problématiques. Pour le philosophe japonais Tomonobu Imamichi par exemple, l’éthique ne peut plus concerner que la vie bonne ou la vraie manière de vivre avec nos semblables, elle doit aussi prendre en compte le monde qui nous entoure. Il parle alors d’ « éco-éthique », concept qui dans son sens le plus vaste, ne se limite plus aux rapports personnels comme peut le faire l’éthique européenne : la vie bonne dépend de la façon dont nous traitons la nature, elle est donc liée à nos modes de production et de consommation.

Pourquoi ce renouveau de l’éthique ?

En ce qui concerne le numérique, les questions éthiques sont réapparues suite à deux séries d’événements : la prise de conscience des mécanismes « captologiques » consistant à retenir les utilisateurs sur un site moyennant des procédés ergonomiques peu scrupuleux et l’essor de l’intelligence artificielle (IA) et des algorithmes automatisant parfois grossièrement des décisions humaines. Dans ce dernier cas, de nombreux chercheurs ont rappelé que certains systèmes informatiques gravaient dans le marbre ou amplifiaient les biais de leurs concepteurs (sexisme, xénophobie, exclusion des plus pauvres). Ces alertes invitent à questionner les conditions de production de ces systèmes : qui sont les personnes qui les conçoivent et suivant quelle représentation du monde ? Comment inscrivent-elles leurs présupposés dans les systèmes ? Est-il possible d’éviter ces transferts ? Peut-on (et comment) avertir les utilisateurs du fonctionnement d’un mécanisme doté d’une intelligence artificielle (qui sont souvent des boîtes noires) ?

En réponse à ces différentes problématiques, les initiatives ont fleuri. Le développement de l’intelligence artificielle (IA) pour ne citer que lui, est aujourd’hui doté d’une multitude d’organismes qui appellent à suivre différentes séries de règles. L’AI Now Institute, proposait en 2017 dix recommandations stratégiques pour limiter les biais algorithmiques, le projet Open AI (dans lequel on retrouve Elon Musk ou encore Sam Altman, dirigeant de l’incubateur Y Combinator), souhaite développer une IA « à visage humain ». Le Partnership on AI to Benefit People and Society, fondé par Google, Apple, Facebook, Amazon, Microsoft et IBM souhaite promouvoir les « bonnes pratiques » en intelligence artificielle, il a récemment été rejoint par le PNUD pour « intensifier l’utilisation de l’IA pour atteindre les objectifs de développement durable ». Il existe également un Serment d’Hippocrate pour Data Scientist et plus près d’ici, des chercheurs et professionnels ont créé le serment Holberton-Turing « dans l’objectif de fédérer et mettre en conscience tout professionnel du domaine de l’Intelligence Artificielle, au niveau mondial, autour de valeurs morales et éthiques communes. » (si tant est que des valeurs morales universelles existent…). Ces initiatives sont un signal fort mais ne doivent pas occulter le fait que les plus grosses sources de financement dédiées aux questions éthiques en technologie sont issues des entreprises qui en sont à l’origine (et qui n’ont aucun scrupule à collecter des données en dehors de tout cadre légal, fut-il européen et récent). D’ores et déjà, la question d’un financement public et / ou réellement indépendant peut être légitimement posée.

À quoi s’applique l’éthique ?

Remettons-nous en tête un élément d’analyse important dès lors qu’on parle de technologie : la notion de « milieu ». Pour le philosophe des techniques Gilbert Simondon, le milieu est – pour faire simple – ce sans quoi un objet technique ne pourrait pas fonctionner correctement : pas de smartphone sans réseau, de voitures sans routes, ni de routes sans industrie du pétrole. Le milieu est à la fois composé d’objets et d’hommes qui échangent en permanence : l’homme conçoit des technologies qui changent l’homme, et ainsi de suite. Simondon distingue plusieurs types d’objets techniques qui composent ce milieu, des plus élémentaires (les « individus ») aux plus vastes (les « ensembles »). Ce détour théorique a une vertu : il nous rappelle que ce qu’on appelle en général « la technologie » n’est jamais un composite d’entités distinctes mais bien une sorte de système aux interdépendances multiples : le fameux milieu.

Revenons maintenant à l’éthique (et passons sur le fait qu’il demeure difficile de s’en donner une définition commune). A quels éléments du milieu s’intéresse-t-elle ? Envisage-t-elle le milieu lui-même ou simplement les pièces qui le constituent ? Prenons le cas de Facebook par exemple : suite aux nombreux scandales et en vue d’atténuer sa réputation d’aspirateur à temps de cerveau disponible, la firme a lancé une série de fonctionnalités destinées à permettre aux utilisateurs de « contrôler le temps » passé sur la plateforme. S’agit-il ici de pansements sur des jambes de bois ou d’une véritable remise en question du modèle d’affaire basé sur la captation des données (que nous « dépensons » au même titre que notre temps, rappelle Karl Pineau, membre du collectif Les Designers Ethiques) ? On pourrait appliquer ce même raisonnement à Netflix ou YouTube (qui a également lancé le même genre de fonctionnalités) : peut-on réellement parler d’éthique si l’objectif de ces plate-forme reste de coller le client devant son écran un maximum d’heures ? Idem chez Spotify, qui n’hésite pas à inclure « dans ses playlists les plus populaires des morceaux composés par de faux artistes. Une astuce qui permettrait au service de streaming d’encaisser directement les royalties. » Que peut l’éthique dans ces cas ? Devrait-elle se contenter de modifier un algorithme, en appeler à l’éthique du designer ou à la seule responsabilité du consommateur sans questionner les structures qui produisent ces abus ? Il y a fort à parier qu’une « brique » éthique n’aura que peu d’effet si elle s’inscrit dans un système d’ensemble qui lui, n’évolue pas.

Autre illustration, la fascinante « Morale Machine » du MIT (http://moralmachine.mit.edu/hl/fr) qui met en scène le classique « dilemme du tramway » appliqué aux voitures autonomes (concrètement : comment devrait réagir une voiture autonome si elle devait se trouver dans la situation de « tuer un enfant » ou « tuer son conducteur » ?). Ces questions doivent bien sûr être tranchées, notamment au regard de particularités culturelles. Cependant, « éthiciser » l’algorithme d’une voiture autonome ne rend pas ce mode de transport éthique par magie. Les voitures autonomes ne sont pas des entités isolées : elles sont connectées en permanence à des systèmes techniques et transmettent quantité de données chaque jour (ce qui les rend aussi « surveillables »). Le grand récit autour de la voiture autonome fait aussi l’impasse sur le type d’automatisation qu’il promeut (plutôt « totalement automatisé », alors qu’on pourrait très bien imaginer un ordinateur qui se contente d’alerter son conducteur en cas de conduite dangereuse). L’avantage écologique souvent mis en avant est lui également, plus que discutable. Les économies d’énergies dépendent fortement du type d’usage qu’on fait de son véhicule et des pratiques de transport à l’œuvre dans une société donnée (autopartage, covoiturage, etc.). Qui dit voiture autonome ne dit pas forcément changement des modes de consommation (du véhicule lui-même ou de l’énergie qui le fait avancer). Pour faire court : les nombreux impacts et effets collatéraux de la voiture autonome sur les champs social, culturel et politique ne doivent pas être réduits aux seule questions de responsabilité dans l’entraînement des algorithmes, qui sont certes passionnantes, mais qui isolent « l’individu » de son « milieu », pour reprendre Simondon.

Enfin, que ce soit dans le cas des voitures autonomes – qui certes, pourraient bien diminuer le nombre d’accidents – ou de tout autre objet connecté, nous devrions toujours commencer par nous demander si nous automatisons quelque chose parce que nous le pouvons, ou parce que nous le devons. Automatiser revient parfois à « verrouiller » certains choix (par exemple, celui du « tout voiture »), ce qui ne facilite pas forcément sa réversibilité. A ce titre, l’urbaniste Jean Haëntjens nous rappelle qu’ « un système qui n’est pas pensé dans sa globalité fonctionnera mal même s’il est optimisé. »

Nous avons besoin d’une éthique du numérique plus profonde

Ces exemples montrent que les questions éthiques liées aux technologies numériques ne concernent pas que des biais inconscients malencontreusement laissés dans la machine par un mâle blanc oublieux (ce qui n’enlève rien au fait que c’est un sujet important qui doit être traité à son niveau). L’éthique est un processus plus profond et sans cesse renouvelé : on ne « grave » pas l’éthique éternellement dans un algorithme. Si l’on souhaite mener une réflexion sur l’éthique et le numérique, il faut adopter deux réflexes essentiels :

  • D’abord, ne pas oublier que toute technologie n’est qu’un élément d’un système de relations sociales, culturelles, politiques, écologiques, et que tout travail critique à propos d’une technologie devra se faire dans ce cadre et en envisageant ses impacts au sens large. Limiter les réflexions éthiques à propos d’une technologie aux seules questions techniques, c’est la soustraire à l’emprise du débat, reconnaître sa dimension sociale, c’est lui redonner une chance d’être discutée dans des arènes politiques.
  • Ensuite, il faut se débarrasser de cette culture positiviste qui considère la technique comme « neutre » et moralement soumise au seul usage qui en sera fait par l’utilisateur. Si les technologies ne sont pas bonnes ou mauvaises en soi, elles produisent des effets qui sont le reflet des structures qui les ont vu émerger. Ce sont ces effets et ces structures que l’éthique doit questionner.

Pour le dire simplement, l’éthique est un cheminement qui mène à des questions politiques – parce que la technique est toujours d’emblée politique – c’est à dire des questions de répartition des pouvoirs et des richesses. Concrètement : comment se forme le milieu technique à l’intérieur duquel émergent en bout de chaîne nos technologies du quotidien ? Quelles sont les forces en présence et quels intérêts défendent-elles ? Selon quelles procédures (depuis un laboratoire ? En démocratie, etc. ?) ? Peut-on réévaluer ce milieu technique et si oui, comment ? Quels effets produirait une technologie repensée avec des critères éthiques sur le milieu technique lui-même (dans le cas d’une voiture autonome : l’énergie, la route, la ville, l’appréhension de l’espace et du temps, etc. ?) ? La numérisation d’un processus favorise-t-elle ou non la reproduction des structures antérieures qui régissent la vie en société ?

Il n’est pas dit que l’on puisse répondre à toutes ces questions. La démarche éthique est aussi l’occasion d’en éprouver les limites, de comprendre quel peut être l’espace pour l’action individuelle ou collective. C’est aussi un bon moyen de saisir ce qui dépend des structures, ce qui peut être réglé par le designer ou bien renforcé par ses agissement ou encore ce qui lui échappe complètement.

Pour creuser ces sujets passionnants, rendez-vous les 1er et 2 octobre prochain à la conférence Ethics by Design.

Pour aller plus loin :

  • L’éthique des techniques selon Simondon par Vincent Bontems, Philosophe des sciences et des techniques, membre du Larsim (laboratoire de recherche sur les sciences de la matière) du CEA (vidéo)
  • Yaël Benayoun : « Nous avons besoin d’un nouveau regard critique sur la technologie ! » (vidéo)
  • Ethique et numérique : une éthique à réinventer (rapport de mission par Flora Fischer pour le CIGREF)

1 comment

  1. Pingback: Intelligence artificielle - Innovation | Pearltrees

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *