Peut-on rendre la technologie morale ?

Alors que l’intelligence artificielle (IA) s’enfonce de plus en plus profond dans l’économie, on signale un certain retard de son pendant éthique. Si les initiatives de nature à réguler ces technologies fleurissent, certains n’hésitent pas à affirmer qu’une intelligence artificielle réellement guidée par l’éthique serait impossible car de nature trop subjective, selon ce que rapporte Karen Hao de la Technology Review. Pourtant, les réflexions sur l’éthique des techniques ne datent pas d’hier, le philosophe hollandais Peter-Paul Verbeek (@ppverbeek) avait déjà bien dégrossi le sujet dans son ouvrage Moralizing Technology – understanding and designing the morality of things, University of Chicago Press (2011).

Peter-Paul Verbeek propose dans cet ouvrage une étude approfondie de ce que pourrait être une éthique de la technique, partant des artefacts les plus simples comme un dos d’âne qui incite à ralentir jusqu’aux systèmes les plus évolués tels que « l’informatique ubiquitaire » (concept introduit par Mark Weiser en 1991) préfigurant l’internet des objets, qui préfixe désormais notre réalité de son adjectif « smart ». La thèse de Verbeek : les objets son bourrés de valeurs morales et il est possible d’infléchir leurs effets lorsqu’on les conçoit.

La technologie est « l’éthique par d’autres moyens »

C’est en « post-phénoménologue » que Verbeek relève ce défi. Pour commencer, la phénoménologie est l’analyse des structures relationnelles entre les hommes et les objets qui les entourent : elle stipule que toute perception est toujours perception de quelque chose. Ainsi, le monde lui-même n’a de sens que parcouru par nos sens qui nous lient à lui. La post-phénoménologie de Verbeek pousse plus loin encore et affirme que toute action entre une personne et un objet serait réciproque, selon un processus de « co-formation » (co-shaping). Par exemple, le fait d’utiliser l’email pour communiquer co-forme ma relation aux autres. Plus concret encore, Verbeek explique que l’échographie, loin de n’être qu’une « fenêtre sur le ventre », est un véritable changement anthropologique. La taille du fétus sur l’écran (qui ne coïncide pas avec sa taille réelle), le fait de le voir « flottant dans l’espace » indépendamment du ventre de la mère ou encore la possibilité de connaître son sexe contribuent à l’apparition d’une nouvelle « personne fétus ». Enfin, la détection d’éventuelles maladies ouvre une série de questions morales jusqu’alors inexistantes (à commencer par le choix de l’avortement). Pour le dire simplement, il n’y aurait pas d’un côté l’homme et de l’autre des technologies éthiques ou non, sur un mode binaire, mais bien une relation, une « médiation » qui les lierait.

Le philosophe conclut de ces illustrations la chose suivante : les designers « matérialisent la morale » dans des objets, et ce de manière plus ou moins consciente. Corollaire, les technologies sont « la morale par d’autres moyens », et bien sûr, ne sont pas que objets neutres dont les effets ne dépendraient que de la personne qui les utilise. C’est l’éternel argument de la National Rifle Association (NRA) : « les armes ne tuent pas, ce sont les hommes qui le font ». Si on suit la logique de Verbeek : un homme portant une arme est co-formé par celle-ci, un nouvel individu apparaît alors, avec une nouvelle morale. L’anglais a même un terme pour cela : « gunman ». Quelque part, on n’échappe pas à la morale des objets : ne pas vouloir pratiquer une échographie est déjà une décision morale. Si l’éthique est une réponse à la question « comment agir », alors toute technologie doit être considérée comme faisant partie de la communauté morale humaine. C’est ce que Bruno Latour appelait « l’acteur réseau », une théorie sociologique qui considère à la fois les hommes… et les objets (Bruno Latour fait des objets de véritables acteurs, ou actants, au même titre que des sujets).

Evaluer les effets indésirables

Une des grandes difficultés quand vient le moment de poser des règles éthiques aux technologies, est que celles-ci produisent des effets plus ou moins attendus. On parle d’effets explicites (quand par exemple un dos d’âne fait ralentir) et d’effets implicites, illustrés par l’échographie qui change le statut moral d’un être à naître (cet effet n’a pas été au centre de la réflexion du concepteur de la machine). Un autre type d’effet implicite est le fameux « effet rebond » : quand une technologie plus verte est moins chère que la précédente, cela peut conduire à une augmentation de la consommation globale d’énergie, justement parce qu’elle est moins chère. Il faut ajouter à cela trois « modes d’impacts » des technologies. Premièrement, elles peuvent forcer les utilisateurs à adopter une conduite (le fameux dos d’âne). Elles peuvent également le  convaincre (par exemple, une machine à laver qui donne un feedback sur sa consommation énergétique), ou peuvent carrément séduire l’utilisateur, avec l’objectif par exemple, de lui vendre quelque chose. Ainsi, le designer (à comprendre dans son acception anglaise plus large : concepteur), pratique une « éthique matérielle » qui demande à être compensée par une prise de responsabilité à la hauteur de son impact. Un propos qui fait clairement écho à celui de Tristan Harris, repenti de Google qui ne manque pas de rappeler que « quelques milliers de personnes chez Facebook conçoivent l’endroit où ira l’attention de deux milliards de personnes tous les jours », et d’ajouter « à la seconde où vous regardez votre téléphone des pensées surgissent dans votre esprit, et vous n’êtes pas l’auteur de ces pensées, elles viennent de quelqu’un d’autre ».

Comment le designer peut-il mettre en pratique ces considérations ? Pour Verbeek, il s’agit avant tout de mesurer et évaluer les capacité médiatrices des technologies. En d’autres termes, l’éthique ne doit pas se contenter de mesurer l’acceptabilité d’une technologie ou ses risques, mais doit bien en saisir les effets en situation d’usage. Et cette évaluation ne peut pas être effectuée par le designer seul : pour Verbeek, quand les conséquences d’une technologie sur le public sont inévitables, le travail du designer devrait faire l’objet d’une décision également publique. Cette proposition rejoint le travail de Richard Sclove qui plébiscite une « démocratie technique », et la mise en place de « Déclaration d’impact social et politique » (DISP) lorsqu’une technologie à fort impact est implémentée. Verbeek de son côté, propose trois méthodes différentes. Tout d’abord, le designer peut grâce à son imagination, envisager les différentes médiations possibles que sa technologie pourrait faire naître. Ensuite, le philosophe reprend l’idée d’une « Constructive Technology Assessment » (CTA), un processus plus proche de la démocratie technique. Enfin, il propose une méthode de scénarisation dans des environnements virtuels, alors même que la technologie est toujours dans sa phase de conception (un exemple ici).

Evaluer constructivement la dimension morale des technologies

Une bonne illustration de médiation anticipée est celle de l’obsolescence programmée. Verbeek évoque le collectif de designers Eternally Yours dont l’objectif est de concevoir un design qui augmente l’attachement à un objet avec le temps. Des matières comme le cuir par exemple, prennent de la valeur aux yeux de l’utilisateur quand elles vieillissent. Mais, rappelle Verbeek, les technologies qui suscitent le plus d’attachement sont celles qui mobilisent l’utilisateur dans leur fonctionnement, à rebours de ce qui a lieu dans le numérique, où tout tend à ne devenir qu’un bouton sur lequel appuyer pour obtenir ce que l’on souhaite. Le travail de Sven Adolph prend le contre-pied de cette tendance, le designer a conçu un radiateur fait de plusieurs cercles concentriques de différentes tailles, le tout est disposé au milieu d’une pièce qui engagent l’utilisateur à le déplacer pour décider de la température et de la direction du chauffage. Verbeek en a fait la couverture de son ouvrage précédent « What things do ». Ces objets n’ont pas forcément vocation à être commercialisés, ils prouvent en revanche que le rôle du designer peut être autre que celui d’une simple producteur de fonctionnalité : il lui revient aussi de susciter de l’attachement et des usages responsables.

http://www.momentum.ch/assets/whatthingsdo.jpg

Une autre méthode, sans doute plus concrète pour relever les effets moraux des technologies, consiste à faire intervenir les différentes partie-prenants qui seront touchées par l’introduction d’une technologie. Les « Constructive Technology Assessment » (CTA) ont été conçues à cet effet. L’idée ici est de tester ladite technologie dans des contextes variés, en recueillant les avis des utilisateurs, lobbies, designers et autres parties impliquées. La technologie est « constructivement évaluée », ce qui revient à démocratiser le processus de design à proprement parler. Le crédo : une technologie conçue selon des modalités participatives sera d’une nature différente. Dans le cas d’une technologie moralement prescriptive, on voit tout de suite le grand intérêt de faire intervenir au plus tôt les acteurs qui en seront les cibles. Et Verbeek ajoute : « la technologie est précisément l’endroit où la moralité du design se trouve, et où la démocratie se fait, concrètement ». Le philosophe n’oublie pas de mentionner le Value sensitive design (VSD), une méthode développée par Batya Friedman qui prend en compte les valeurs humaines lors de la conception d’une technologie (voir, Value Sensitive Design and Information Systems). Cette technique fut utilisée pour assurer la refonte d’un navigateur internet plus exigeant quant à la collecte des cookies en partant d’autres valeurs comme la confidentialité et l’autonomie. Ce navigateur s’appelle Mozilla Firefox.

Pour résumer, l’approche de Peter-Paul Verbeek est la suivante : un designer peut concevoir un objet moralement explicite ou implicite. Il convient tout d’abord d’analyser ces valeurs pour comprendre dans quelle mesure l’objet y répond ou non. Par la suite, une analyse de médiation permet d’anticiper les effets d’une technologie et si besoin, les revoir. Enfin, un design peut être choisi, celui-ci ne pourra jamais être garanti « moralement » car de nouvelles appropriations arrivent toujours, autant que de nouveaux effets surgissent au contact d’autres objets… Cette approche peut créer des frictions, faciliter ou non le processus de design.

Dans la fin de son ouvrage, Verbeek aborde la question de l’informatique ubiquitaire (on parle aujourd’hui d’internet des objets – IoT) et propose un mode d’évaluation en trois phases : il s’agirait avant tout de s’assurer que les appareils respectent certaines règles (ne pas faire de mal, être réellement bénéfiques pour l’utilisateur, et justes moralement). Ces exigences ne sont pas si évidentes, l’auteur prend l’exemple de FoodPhone, une application qui mesure les calories à partir des photos de nourriture. Le procédé peut permettre à son utilisateur de surveiller son alimentation, mais peut aussi faire du repas un moment stressant, basant la santé sur ce seul critère et évacuant d’autres activités comme le sport, qui pourrait aussi bénéficier à l’utilisateur. En cause également, les technologies dites « persuasives » qui envahissent déjà le quotidien pour améliorer la santé ou promouvoir les comportements écologiques. Il faudrait là également, des procédures démocratiques pour mettre en place ces procédés qui remodèleront moralement les hommes, les contraignant parfois dans leurs libertés, au même titre que certaines lois. Agir « bien » selon des règles que l’on ne connaît pas est moralement discutable. Et pour cause, adopter une conduite parce qu’on nous y incite ou parce qu’on la comprend et qu’on la choisit en conscience sont deux choses fondamentalement différentes.

Quand est-ce qu’on s’y met ?

Il y aurait beaucoup à dire sur cet ouvrage majeur qui ajoute une pierre essentielle à l’édifice de la démocratie technique dont j’ai déjà longuement discuté. Cependant, on regrette que Verbeek – dont je ne connais pas les plus récentes publications – s’arrête à quelques exemples certes forts, mais qui n’ouvrent que partiellement les questionnement à propos des structures sociales qui voient émerger nos technologies modernes. Pas une seule fois dans l’ouvrage, on ne fait référence au climat économique concurrentiel, à la provenance des financements à l’innovation ou encore à l’exigence d’accélération et de « mise en performance » de tout. Comme si la question n’était finalement que philosophique et évacuait d’emblée le versant financier. Verbeek n’a aucun mal à réconcilier l’homme et ses artefacts, mais replace trop timidement la question démocratique à l’intérieur de la question économique. A ce titre et quand on sait comment les nouvelles technologies sont financées, il y a lieu de s’inquiéter. La bonne volonté de quelques acteurs ne pèse-t-elle pas peu face aux milliards déjà engagés dans l’intelligence artificielle sans qu’aucune démarche éthique ou presque ne soit mise en place ? Nous avons-là un train lancé à toute allure,  faudrait-il l’arrêter pour y placer quelques citoyens ? A vrai dire, les ajustements en intelligence artificielle (traitement du langage, reconnaissance des formes, etc.) se sont quasiment toujours faits sur le mode de la réaction : ici un distributeur de savon qui ne reconnaît pas les mains noires, là un système qui reproduit les inégalités socio-économiques… Et ce ne sont là que les illustrations les plus « grand public » de technologies qui changent déjà en profondeur toute la société.

Michel Callon, Pierre Lascoumes et Yannick Barthes en parlaient déjà dans l’indispensable Agir dans un monde incertain, essai sur la démocratie technique (Seuil, 2001), les auteurs relataient une « épidémie »  ayant fait exploser la mortalité infantile dans un département français. Les citoyens concernés par la polémique se réunirent et débutèrent l’enquête autour d’éventuels polluants présents dans la région : « Les résidents en parlent, se regroupent. Ils forment une communauté, non plus de paisibles citoyens partageant le même territoire, mais une communauté ayant intégré dans son existence quotidienne la présence de polluants qui participent à la vie collective en agissant jour après jour sur la santé des habitants. » Les trois auteurs poursuivent leur réflexion et défendent alors la thèse suivante : « Il ne faut pas attendre que les controverses se déclarent. Il faut les aider à émerger, à se structurer, à s’organiser. Faciliter l’identification, par eux-mêmes et par leurs partenaires, des groupes concernés, organiser la recherche collaborative et la co-production des connaissance qu’elle rend possible : telles sont les préoccupations constantes de la démocratie technique ». Comme on peut le voir, en dehors des polémiques, bien souvent mises sur le devant de la scène par certains médias de fond ou quelques chercheurs, la composition du collectif reste un défi de taille et l’imagination manque souvent lorsqu’il s’agit d’inventer et de mettre en place les procédures démocratiques – ou au moins participatives – dès la phase amont de conception des technologies.

Cette impossibilité presque structurelle de la démocratie technique – à part quelques initiatives isolées – accouchera sans doute plus probablement d’une éternelle régulation par le haut, comme l’explique Kara Swisher (@karaswisher) dans le New York Times. La journaliste signale qu’il est temps pour la Silicon Valley de « se comporter en adulte », et questionne l’utilité de nommer des « Chief ethics officers »… Elle rapporte une conversation avec un consultant chargé d’éthique qui lui avoue que la Silicon Valley n’a pas encore vraiment défini le terme… (on notera la présence d’un tel poste chez Qwant, en la personne de Guillaume Champeau). Autre régulation possible : la déconstruction des technologies a posteriori, comme le concluait Christophe Benavent (Université Paris Ouest Nanterre La Défense) dans son article « Big Data, algorithmes et marketing : rendre des comptes » : « plutôt que d’interdire ou d’autoriser, la première étape de la régulation du monde des machines est d’imposer socialement l’exigence de rendre compte, ne serait-ce que par une approche d’ingénierie inversée comme le propose Diakopoulos (2014) qui vise à partir de l’étude des données d’entrée et de sortie à reconstituer le fonctionnement effectif des algorithmes, en démontant à rebours leur mécanique pour en retrouver les principes et identifier la source des effets pervers. » La question qu’il ne pose pas cependant, et dont on ne connaît logiquement pas la réponse, est celle de savoir qui se chargera de cette fameuse rétro-ingénierie et de vérifier que les comptes sont bien rendus (on parle aussi d’internalisation des externalités), selon quelles procédures sociales et à quel prix (de quelle autorité parle-t-on, quels pouvoirs lui sont accordés ?). Laisser les entreprises s’en charger, c’est admettre qu’elles seront juge et partie (est-ce qu’on demanderait à Total de rétro-ingénierer son impact carbone ?). A la fin de l’histoire, il y aura toujours la presse, qui fera office de contre-pouvoir face aux grandes sociétés technologiques, comme elle est aujourd’hui un contre-pouvoir face au politique.

Irénée Régnauld (@maisouvaleweb)

S’abonner
Notifier de
guest
4 Commentaires
Inline Feedbacks
View all comments
trackback

[…] Sclove et sans doutes un tas d’autres moyens à chercher dans la pratique des designers). Voir http://maisouvaleweb.fr/peut-on-rendre-la-technologie-morale/ et […]

trackback

[…] (notamment par la scénarisation, ou en faisant un effort d’imagination, comme l’explique Peter Paul Verbeek). Dès lors que l’on a les données et le background suffisant en psychologie, on peut […]

trackback

[…] une certaine mesure le co-design. Dans son ouvrage What things do, le philosophe Peter Paul Verbeek expliquait quant à lui l’intérêt du « Constructive Technology Assessment » (CTA) qui permet […]

trackback

[…] value-sensitive design, human centered design, design participatif (j’en fais mention par ici, là ou encore là – sans oublier le « Design justice » qui interroge plus en profondeur encore la […]