Faut-il empêcher les « mésusages » des technologies ?

Peut-on tout laisser les utilisateurs s’approprier une technologie comme ils le souhaitent, ou bien faut-il leur imposer des garde-fous dans certains cas, demande Kevin Mills, dans un papier publié dans la revue AI and Ethics, « Technolgy, liberty, and guardrails ». De plus en plus, les développeurs de technologies sont sommés d’évaluer leurs effets et de tendre vers une forme de responsabilité. Celle-ci peut passer par une restriction des usages, qui empêcherait les utilisateurs de « mal » les utiliser. Pour Mills, ces restrictions sont délétères, à l’exception de deux cas : une mauvaise utilisation non intentionnelle, et la violation des droits d’autres personnes.

La responsabilité est donc devenue un buzzword. Les grandes entreprises technologiques embauchent des chercheurs pour anticiper et atténuer les risques que peuvent susciter leurs créations, jusqu’à inciter leurs développeurs à internaliser l’impossibilité de les détourner à de mauvaises fins. En d’autres termes, il s’agit de poser des limites, y compris fonctionnelles, qui pour l’auteur, réduisent les libertés des utilisateurs. C’est le cas quand par exemple, une technologie pensée pour être utilisée individuellement l’est collectivement et, de manière plus générale, quand des impacts indésirables sont produits quelque part. Kevin Mills est plutôt avare en exemple et l’on comprend vite que son inquiétude porte avant tout sur les grands modèles de langage (ou LLM ou Large Language Models), tels que ChatGPT. Pour être plus précis, sa problématique est la suivante : au nom de quoi un développeur devrait-il s’auto-proclamer l’arbitre moral de ce qu’il faut ou ne faut pas faire d’une technologie qu’il a lui-même déployée ?

Deux cas d’usage plus spécifiquement viennent illustrer le propos. Dans le premier, Mills demande à Bing Image Creator de générer une photo d’Alexandre le Grand regardant un champ couvert de soldats morts ou blessés. En guise de réponse, le système lui signale que son prompt a été bloqué car il contrevient à la politique de contenu du service. D’autres violations de ce type peuvent mener à une suspension automatique du service. Il s’agit là d’une simple restriction fonctionnelle pensée pour empêcher ou rendre difficile aux utilisateurs d’adopter certaines pratiques perçues comme étant non conforme à la bonne utilisation du système. Ce qui résume assez bien ce que Mills entend par « mésusage de la technologie ».

Dans un autre cas, l’auteur demande à Dall E de produire certaines images, elles aussi systématiquement refusées : une photo d’un drapeau Nazi en feu, alors que les alliés marchent triomphalement, une image de la Naissance de Venus de Botticelli, mais avec une Venus noire ou encore celle de deux enfants en pleurs alors que leur père bat leur mère. Nouvel essai avec ChatGPT, qui refuse également de coder un « keylogger » (un enregistreur de frappes réalisées sur un clavier d’ordinateur), un post de blog contre le mariage interracial ou encore un article expliquant que l’élection de 2020 aux États-Unis a été volée.

Un mésusage, résume Kevin Mills, est dans ces cas-ci un choix normatif, un jugement quant à ce qui peut paraître immoral ou imprudent. Toutes les restrictions de fonctionnalités n’entrent pas dans cette catégorie, on peut penser par exemple aux Paywall qui interdisent l’accès à un site si l’on n’a pas payé d’abonnement. En tout état de cause, le préjugé est que le développeur sait mieux que l’utilisateur ce qui est bon, et l’impose dans un mouvement « paternaliste », écrit Mills.

Il existe deux types de garde-fous : le premier type est dit rétrospectif (ou ex-post), il s’agit de bloquer une fonctionnalité permise par la technologie. Le second type est appelé prospectif (ou ex-post), et implique de penser le design d’une technologie pour empêcher l’acquisition d’une ou plusieurs fonctionnalités. Il pourrait s’agir pour un logiciel d’intelligence artificielle, de refuser l’entraînement depuis des contenus « adultes ». Toute technologie implique toutefois des abus potentiels, est-il de la responsabilité des entreprises de tous les éviter ? Mills prend l’exemple de « Recall », un service récemment publié par Microsoft, qui consiste à prendre une copie de l’écran de l’utilisateur toutes les cinq secondes à des fins d’entraînement d’une IA au service de l’utilisateur : celui-ci a simplement été retiré en raison de fortes possibilités de mésusage (par Microsoft). 

En tout état de cause, pourquoi les concepteurs devraient-ils se réserver de tels droits ? Mills répond que cela implique que certaines personnes ne peuvent pas gérer les potentialités d’une technologie, alors que d’autres peuvent, et sont dans une position morale supérieure qui leur permet d’assumer la responsabilité de l’usage des premiers. Or pourquoi les développeurs devraient ou voudraient assumer ce rôle ? Sont-ils plus à même de résoudre les problèmes rencontrés ? Ne risquent-ils pas d’en profiter pour promouvoir leurs propres intérêts ? Et quand bien même ils seraient dans le « vrai », il n’est pas impossible que la restriction des mauvais usages inclue aussi, par inadvertance, des usages légitimes. Dès lors, toutes ces limites imposent de ne pas céder aux développeurs cette autorité, selon l’auteur : la technologie est un espace où la liberté doit primer, et les garde-fous la menacent de différentes manières, selon le sens qu’on lui donne : ils limitent les libertés positives (au sens d’Amartya Sen), c’est-à-dire l’opportunité d’accomplir des choses auxquelles on donne de la valeur –  en tirant le fil, c’est à la poursuite de leur propre bonheur qu’on les empêche de se lancer.

Les garde-fous sont-ils justifiés, demande tout de même l’auteur… avant de répondre par la négative en plusieurs points. Tout d’abord, s’il y a eu des abus en termes de détournement, c’est plutôt le fait des grandes entreprises que de leurs utilisateurs. Ensuite, une bonne partie des problèmes que ces garde-fous veulent régler (par exemple, la désinformation ou la polarisation des opinions) ont des causes sociales profondes, souvent exacerbées par la « malfaisance néolibérale ». Enfin, les garde-fous peuvent toujours être contournés par des acteurs malveillants : à quoi bon imposer des restrictions aux autres ?

Pour les libertés positives, les garde-fous sont donc des inhibiteurs, si l’on résume l’avis de l’auteur. Il n’en va pas autrement pour la liberté négative (qui désigne, selon Isaiah Berlin, l’absence d’interférence avec la volonté). Justement, les garde-fous interfèrent-ils avec la volonté ? Par définition, une technologie augmente le spectre de l’action, même avec des garde-fous, il semble donc étrange de répondre positivement. Toutefois, ils sont aussi là pour réduire le nombre d’options disponibles et de ce fait, imposent une volonté à une autre volonté. Si la liberté est l’absence de domination, ou encore le fait de se gouverner soi-même, alors c’est encore une transgression, pour Mills, dans la mesure où rien ne devrait empêcher à quiconque d’être « son propre maître ».

Citons-le : « Un pouvoir illimité de mettre en place des garde-fous s’empare d’un domaine essentiel de la vie moderne, notre utilisation de la technologie, et nous impose une sorte de maître ; il nous soumet à une autorité de surveillance incontrôlée qui décide si nous pouvons ou non faire quelque chose, subordonnant ainsi de manière asymétrique et systématique notre pouvoir de choix à ses normes, préférences et jugements normatifs. »

Quant à la liberté des développeurs, si ceux-ci déploient des technologies qui changent le monde, alors ils devraient abandonner leurs proclamations à la liberté de restreindre celles des autres : « s’ils ne veulent sincèrement pas participer aux manières dont une technologie est susceptible d’être utilisée, personne ne les oblige à la construire ou à la déployer. »

Mills considère que les garde-fous doivent être justifiés non pas par une autorité particulière que les développeurs exerceraient sur leurs utilisateurs, mais par l’autorité générale dont chacun dispose pour protéger autrui contre la violation de leurs droits. Il suggère que les développeurs doivent, dans la plupart des cas, être soumis aux mêmes contraintes que le reste de la population lorsqu’il s’agit de limiter la liberté des utilisateurs. Selon lui, leur intervention ne devrait être permise que pour empêcher des violations de droits. En conclusion, Mills propose que les développeurs soient dans l’obligation d’intervenir lorsque deux conditions sont réunies : d’une part, les violations de droits doivent être raisonnablement prévisibles ; d’autre part, des interventions permettant de prévenir ces violations doivent exister, à condition qu’elles n’entraînent pas une perte excessive de liberté pour les utilisateurs de la technologie en général. Il précise que ce qu’on entend par « perte excessive de liberté » doit être évalué au cas par cas, car cela dépend des droits qui seraient autrement compromis.

S’abonner
Notifier de
guest
0 Commentaires
Inline Feedbacks
View all comments