Une tech responsable oui, mais financée et soutenue par des lois !

Le constat d’un décalage entre ce qu’attendent les citoyens des technologies et les effets que celles-ci produisent sur la société est une certitude. Il s’agit à présent d’en faire un nouveau point de départ pour renforcer le dialogue et rééquilibrer les pouvoirs entre les entreprises, les gouvernements et les citoyens. C’est dans cet esprit que le Think tank anglais Doteveryone (@doteveryoneuk) a récemment publié un rapport Regulating for Responsible Technology, dont certaines propositions méritent qu’on s’y attarde quelques minutes. L’objectif : dessiner un futur en commun, le corollaire : ne pas laisser le crayon aux seules logiques techniques.

En matière numérique, les règlements et autres chartes éthiques ne manquent pas, Doteveryone a dressé la liste quasi-exhaustive de toutes ces initiatives dont on peut avancer qu’elles s’inscrivent dans logique du serment d’Archimède, qui exprime les responsabilités et les devoirs des ingénieurs et des techniciens sur le modèle du serment d’Hippocrate. Il y a dans ces différents documents de réelles bonnes pistes pour développer des technologies plus responsables, à l’heure où l’intelligence artificielle semble envahir le quotidien. Cependant, bonne volonté et loi ne sont pas synonymes. Comme le pointait justement Hubert Guillaud dans son article à propos de la rencontre sur la « Tech responsable » organisée par le Think tank à Londres, la responsabilité ne peut pas être confiée seulement aux entreprises : « elle nécessite des modalités de contrôle clairement définies, des modalités pour que la société civile puisse peser sur les choix que prennent les entreprises, et des contreparties, pas seulement des solutions. » L’article terminait justement sur une mention du rapport que nous allons à présent ouvrir.

Plus qu’alarmiste, l’entrée du rapport est pragmatique : « la société ne parvient pas à guider les impacts de la technologies ». En conséquence, nous dit Doteveryone, les instances régulatrices à venir devront donner une vision claire de comment l’Angleterre souhaite façonner la technologie, et à revers, comment les technologies devront façonner l’Angleterre. Premier point intéressant donc, la mention d’une interdépendance entre les choix technologiques d’une société et son devenir en tant que telle. Pensez-y un instant : les grands choix techniques d’un pays (en ce qui concerne la France : le nucléaire, le réseau de transport ou électrique, etc.) sont rarement débattus. Ils sont souvent donnés pour acquis tant la question technique est dépolitisée. En résumé, la technologie est tout sauf démocratique ! Mais en matière numérique, nous sommes arrivés à un point de rupture qui nous engage à un dialogue plus poussé : 50% des gens pense que les nouvelles technologies de l’internet ont eu des effets très positifs pour eux à titre personnel, mais 13% seulement en voient les bénéfices pour la société, nous rappelle Doteveryone. En cause, les scandales à répétition, fuites de données personnelles, cyber-harcèlement et autres fake news. La confiance dans les acteurs du numérique s’est gravement érodée et si nous avons semble-t-il gagné en confort, nous en décelons chaque jour un peu plus les effets pervers. Ces phénomènes ont peu à peu alimenté la méfiance à l’endroit des nouvelles technologies, ou plutôt envers leurs modes de conception, de diffusion et de contrôle.

Un régulateur qui regarde derrière et pas devant

Le rapport dresse en parallèle un autre constat majeur : nos sociétés sont aujourd’hui incapables de réguler les technologies pour plusieurs raisons. D’une part, les structures juridiques sont inadaptées, en Angleterre (comme en France d’ailleurs), aucune institution n’est vraiment capable de suivre le mouvement, que ce soit par manque de moyens (pensons au budget de la CNIL par exemple, totalement inadapté à la puissance des GAFAM – notons que Doteveryone prévoit un budget de 37 millions de livre pour une telle structure) ou au manque de compétences, notamment techniques. Les deux allant souvent de pair. Résultat, les organismes régulateurs réagissent trop lentement, « ils regardent derrière et pas devant », explique le rapport. Voilà sans doute pourquoi il faut toutes ces années pour qu’en France, la cour de cassation requalifie les contrats des livreurs des plateformes type Foodora dont on connaît les situations précaires.

Autre écueil, nous tablons trop sur la protection des données, ce qui a certes, entraîné la RGPD, mais il n’existe pas encore grand chose contre la discrimination algorithmique, alors même que ses abus commencent à être documentés – parmi beaucoup d’autres, le livre de Cathy O’Neil Weapons of Maths Destruction a de ce point de vue été d’une grande utilité. Mais cela ne suffit pas, et c’est sans doute une des raisons qui explique le retard du régulateur : nous manquons de preuves sur les effets négatifs des technologies. Les impacts de la surexposition aux écrans chez les enfants par exemple, fait encore débat, tant la dimension technologique s’imbrique dans tout un contexte social qu’il est difficile d’isoler et de mesurer (une étude américaine expliquait récemment que l’impact des réseaux sociaux sur le bien-être des adolescents était équivalent à celui de manger… une patate). Ajoutons au passage que les discriminations algorithmiques sont éminemment politiques : les sociétés parfaitement égalitaires n’existant pas, une personne de droite, ou de gauche, justifiera plus ou moins tel ou tel type de discrimination au regarde ses propres valeurs (pensons à la discrimination positive, aux obligations demandées au demandeurs d’emplois, etc.).

A cet effet Doteveryone propose de créer un organisme indépendant (the Office for Responsible Technology) dont la mission serait triple :

  • D’une part, il permettra de donner plus de pouvoirs aux instances régulatrices qui demandent aux organismes déployant des nouvelles technologies de rendre des comptes en cas de problème. Pour cela, le bureau devra être en capacité d’anticiper les effets des nouvelles technologies.
  • Le deuxième objectif du bureau serait de montrer au public et aux décideurs politiques que les régulations reposent sur des études et des preuves des bénéfices et avantages des nouvelles technologies.
  • Enfin, le dernier axe consiste à mettre en place les bons mécanismes pour qu’une personne ou un groupe d’individus victimes d’un traitement défavorable ou d’une discrimination due au déploiement d’une nouvelle technologie puissent faire un recours efficacement, et obtenir réparation.

Chacun de ces trois points font l’objet de quelques propositions dont certaines méritent d’être soulignées.

Imposer la transparence aux acteurs du numérique

La première mission du bureau consisterait à redonner du pouvoir aux instances régulatrices. Le rapport part d’une petite étude de cas sur le pouvoir d’une plateforme comme Facebook lors d’un processus électoral. Il n’y a pas à ce jour d’étude sérieuse et indépendante pour attester des effets générés par ces plateformes (même si l’on observe de-ci de-là des études sur les fake news). Doteveryone expose plusieurs aspects qui pourraient être de nature à diminuer cette opacité : faire plus de transparence sur les montants dépensés par chaque parti sur Facebook, définir une taille minimale pour les groupes ciblés par les publicités (afin d’éviter la micro-personnalisation des discours) ou encore demander aux plateformes d’être capable de dire combien de bots font circuler du contenu à caractère politique (demande d’autant plus urgente et légitime qu’une récente étude est venu prouver que les bots pouvaient influencer les opinions politiques).

Autre point important, l’Office se rendrait capable d’anticiper les impacts d’une technologie sur la démocratie, et non pas seulement du point de vue économique. C’est une autre proposition forte, puisque la plupart des partisans d’une forme de laisser-faire technologique postulent qu’on ne peut rien prévoir, et qu’il faudrait mieux réguler a posteriori. Une autre façon de céder au déterminisme technologique. Il est en réalité tout à fait possible, méthodologiquement, de prévoir certains effets qu’aura une technologie sur la sphère sociale (notamment par la scénarisation, ou en faisant un effort d’imagination, comme l’explique Peter Paul Verbeek). Dès lors que l’on a les données et le background suffisant en psychologie, on peut scénariser les effets d’un algorithme dans la justice. Dès lors qu’on a quelques notions d’urbanisme, on peut prévoir les effets du déploiement de plusieurs milliers de trottinettes louables à la demande dans Paris. Cependant, les cas qui viennent illustrer ce point dans le rapport sont plutôt mal choisis puisqu’ils concernent les effets de la blockchain sur le secteur de l’énergie, et de l’informatique quantique sur la sécurité… En tout état de cause, ce programme ambitieux demande des ressources, mais le régulateur ne peut pas se plaindre de se faire dépasser s’il ne met pas les moyens pour reprendre la main.

Permettre à des chercheurs indépendants d’accéder aux données des acteurs du numérique

La deuxième mission du bureau serait d’asseoir les régulations sur un corpus de preuves. Le constat est le suivant : les décisions politiques sont trop peu informées et tendent à ressembler à des opinions personnelles. Il en va ainsi de l’interdiction du Smartphone à l’école, un choix qualifié de dogmatique par beaucoup. En outre, il est souvent difficile d’isoler la part de responsabilité technologique des phénomènes qui semblent y être liés, comme par exemple les fake news. Ces deux points aboutissent à une conclusion forte : le bureau devra avoir le pouvoir de commander et de conduire des recherches sur les risques et bénéfices des technologies afin d’évaluer l’impact des mesures de régulations. Corollaire : le bureau aura aussi le pouvoir de contraindre le gouvernement et / ou les entreprises technologiques à partager les informations qui rendent possibles ces recherches.

Aujourd’hui, les recherches sur les effets discriminants des algorithmes se font par rétro ingénierie, ce qui prend du temps (voir à ce titre les travaux de Dominique Cardon, Cathy O’Neil et bien sûr les enquêtes de Propublica). Wired titrait récemment « On ne saura pas si le temps passé sur un écran est dangereux tant que Facebook ne nous livre pas ses données » (sous entendu, livrer les données à des scientifiques travaillant pour une entité in-dé-pen-dante). Quant à laisser aux acteurs du numérique le soin de produire leurs propres études, autant leur demander d’être juges et parties. Comme le pointait récemment la sociologue Dominique Méda dans une tribune au journal Le Monde, nous avons besoin de scientifiques indépendants, donc suffisamment financés par la puissance publique. Elle faisait référence à une étude sur le « bonheur des chauffeurs Uber », de toute évidence truquée.

Faciliter les recours individuels et collectifs

La troisième mission du bureau serait de permettre aux utilisateurs de pouvoir demander un recours quand ils subissent les mauvais effets d’une technologie. En préalable, un constat important que rappelle Doteveryone : 43% des gens disent qu’il est inutile de lire les conditions générales d’utilisation des services internet, notamment parce qu’ils considèrent que les entreprises « feront ce qui leur chantent de toute façon ». Une affirmation qui se vérifie, à en juger la fréquence des scandales dans le secteur numérique. En dehors des journalistes, des chercheurs et de quelques associations (comme la Quadrature du Net en France), il n’y a aujourd’hui personne qui peut se retourner contre un algorithme. Les citoyens n’ont pas le pouvoir de mener des actions collectives, mais 87% d’entre eux le feraient s’ils en avaient la possibilité. Seulement, il faut pour cela s’organiser, les effets d’un algorithme sont parfois réduits à l’échelle individuelle, mais structurant à l’échelle collective. Quand par exemple, une personne qui engage un prêt constate une différence de taux injustifié par rapport à son voisin, elle devrait pouvoir saisir le bureau qui de son côté, devrait être en mesure de conduire un audit de l’algorithme pour attester que cela n’est pas dû à un biais racial par exemple. Si un tel biais est identifié, il devrait y avoir excuse et réparation, écrit le Think tank.

Le rapport compte une trentaine de pages et pourrait bien sûr faire l’objet d’un certain nombre de remarques : comment définit-on un cap technologique en société ? Comment pondérer ce que plébiscitent les citoyens par rapport à ce que défendent les entreprises si les deux devaient s’opposer dans un « dialogue » démocratique ? Quelles formes d’institutions devraient favoriser ce dialogue ? Pourquoi une énième administration marcherait mieux que les anciennes (et pourquoi pas une chambre citoyenne, etc.). Mais les recommandations du papier vont globalement dans le bon sens pour obtenir si l’effet recherché est de rendre démocratiquement la technologie comptable.

Irénée Régnauld (@maisouvaleweb)

1 comment

  1. Pingback: Technologies : sortir du biais d’optimisme et commencer à en évaluer les effets | Mais où va le Web

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *