Dans le cadre du groupe de travail « démocratie technique », les membres du Mouton Numérique vont à la rencontre d’initiatives qui tentent de re-démocratiser les choix technologiques. C’est ainsi que, tout en suivant attentivement les débuts de la campagne européenne Reclaim Your Face, qui vise à interdire la surveillance biométrique de masse dans l’espace public, ils s’entretenaient il y a quelques semaines avec Aidan Peppin, Senior researcher au Ada Lovelace Institute. L’organisation à but non-lucratif a mené ces derniers mois une convention citoyenne sur les technologies biométriques (Citizens’ Biometrics Council). Entretien mené par Camille Dubedout, Irénée Régnauld et Adrien Aszerman.
Qu’est-ce que le « Conseil biométrique » de l’Institut Ada Lovelace ?
L’institut Ada Lovelace (ndlr : du nom de l’informaticienne Ada Lovelace) a pour mission de veiller à ce que les bénéfices de la data et de l’intelligence artificielle soient équitablement répartis dans la population. Depuis 2018, nous sommes notamment financés par la fondation Nuffield qui se donne pour mission de soutenir la justice sociale et le bien-être, et aujourd’hui, beaucoup de ce bien-être dépend de l’environnement digital. Comme l’institut choisit de façon indépendante les sujets sur lesquels il travaille, nous avons voulu comprendre quelle était la perception du public vis-à-vis des technologies biométriques comme la reconnaissance faciale qui soulèvent des questions sur le consentement ou la surveillance. Nous voulions également que le public puisse développer des recommandations et poser ses propres questions lors d’ateliers dédiés.
Nous avons donc sélectionné (suivant une méthode d’échantillonnage raisonné) soixante personnes afin de constituer ce Conseil, en cherchant à établir dans le panel une forme de représentativité de la population de Grande-Bretagne (âges, genres, catégories socioprofessionnelles, lieux de vie). Nous avons également cherché à mobiliser des gens plus ou moins à l’aise avec l’idée de partager leurs données en ligne… Le Conseil s’est ensuite réuni lors de trois week-ends au cours d’ateliers en face à face avec plusieurs expert-es issus de divers milieux académiques ou professionnels. Nous avons dû adapter le format quand la crise sanitaire est intervenue, les ateliers ont donc eu lieu en ligne entre les mois d’août et octobre 2020. En tout, on parle tout de même de soixante heures de délibération.
Pourquoi un tel format ?
La création du Conseil biométrique s’est faite alors que de nombreux rapports commençaient à être publiés et médiatisés sur l’usage de la reconnaissance faciale à des fins sécuritaires, notamment en Chine où ces systèmes sont utilisés pour cibler les populations ouïghours. Il est désormais clair que ces technologies souffrent de nombreux biais et sont particulièrement dysfonctionnelles pour les personnes de couleur et pour les femmes. Le fait que cette situation soit connue était pour nous une première étape. Cependant, un avis provenant de la société civile faisait encore défaut. En 2019, nous avons publié une première enquête quantitative menée auprès de 2000 personnes : « Beyond face value: public attitudes to facial recognition technology ». Nous y posions plusieurs questions sur le ressenti à propos de la reconnaissance faciale, et sur son usage dans différents contextes (par la police, à l’école, dans les transports publics). L’étude est venue attester que la population de Grande-Bretagne attendait clairement plus de restrictions sur l’usage de la reconnaissance faciale.
Cependant, ce n’était pas suffisant. Si les enquêtes permettent de prendre le pouls de la société à un moment donné, et d’avoir une idée de ce que pensent globalement les gens, ce à quoi ils sont favorables et ce à quoi ils s’opposent, cela ne vous en dit pas vraiment plus sur ce qu’ils souhaiteraient réellement mettre en place dans le contexte. C’est pour cela que le Conseil nous a paru être une bonne idée. C’est un format qui permet d’aller plus en profondeur. Non seulement cela permet de comprendre les motivations profondes derrière les opinions des uns et des autres, mais c’est aussi un espace idéal pour appréhender des sujets complexes et formuler des recommandations.
Le Conseil a vocation à s’exprimer sur la manière dont les choses devraient se passer, sur la bonne manière de gouverner une technologie et de déterminer ses usages. Il faut noter que nous n’avons pas imposé aux participant-es les questions auxquelles ils étaient censés répondre. Quand nous avons commencé les premiers ateliers, la question de savoir ce qui était « ok » ou non en termes d’usage des technologies biométriques a donc vite été élargie à des interrogations plus diverses : qu’est-ce qui est ou non acceptable ? responsable ? digne ou non de confiance ? Toutes ces différentes dimensions ont fini par être intégrées à la réflexion du groupe.
Quel est le positionnement de l’institut Ada Lovelace dans l’organisation du dialogue ?
Notre objectif à l’Institut Lovelace n’a pas été de convaincre le Conseil que telle opinion est vraie ou fausse, mais d’alimenter les participant-es avec le plus d’informations possibles afin qu’ils forgent leur propre opinion. Il y a par exemple dans ce Conseil, des gens qui pensent qu’un bannissement strict de la reconnaissance faciale est nécessaire, d’autres qui croient que certaines de ces technologies peuvent avoir une place dans des scénarios bien particuliers.
Quoi qu’il en soit, je pense que depuis l’affaire Cambridge Analytica, l’engagement du public est de plus en plus important sur ces sujets et globalement sur la manière dont la technologie façonne le monde. Nous essayons honnêtement d’écouter ce que le public a à dire, et de faire en sorte que ceux qui prennent les décisions politiques ou qui conçoivent les technologies écoutent ce public.
Comment vous assurez-vous que l’information que reçoit le Conseil est bien équilibrée ?
Je plaisante souvent en expliquant que présenter des informations à un public relève plus de l’art que de la science… Notre travail à l’Institut n’est pas tant de présenter une information neutre qu’une information équilibrée. On ne peut pas prendre une opinion, disons celle d’une personne qui s’oppose à la reconnaissance faciale, et tenter de la « neutraliser ». De même, nous ne pouvons pas prendre la position de la police et lui retirer ce qu’elle a de subjectif. Le plus cohérent est bien de présenter les deux côtés de l’argument aux membres du Conseil afin de les laisser en discuter entre eux, et avec les personnes qui défendent ces arguments pour et contre. En fin de compte, notre travail consiste à faciliter cet échange et à mettre en place les bons processus pour que l’information circule. À la marge, nous intervenons pour rendre l’information plus lisible et accessible, afin qu’elle puisse être comprise par d’autres publics que des scientifiques.
Nous avons commencé par présenter une information assez large afin que le Conseil dans son ensemble soit sur la même longueur d’onde et bénéficie d’un socle commun. Ensuite, nous avons répondu aux besoins que le Conseil exprimait, d’ateliers en ateliers : si un domaine en particulier méritait un éclaircissement, alors il nous fallait solliciter la bonne expertise pour y répondre lors d’un prochain atelier. Un groupe de contrôle (« oversight group ») composé notamment par le régulateur, un membre des forces de Police de Londres, et différentes autres partie-prenantes, nous a appuyé dans le processus d’équilibrage de l’information. Il en résulte qu’au final, les membres du Conseil ont été mieux informés sur leurs problématiques que s’ils avaient tenté seuls de trouver l’information par leurs propres moyens.
Aux États-Unis, des villes comme Portland ont purement et simplement banni la reconnaissance faciale : organiser le débat ne risque-t-il pas de redonner une part de légitimité à ces technologies (sous-entendu : qu’il faudrait interdire) ?
Il y a en effet toujours ce risque. Si on sort du rôle de l’Institut qui consiste à équilibrer l’information, la question se pose légitimement. Beaucoup dans la société civile pensent que tout ce qui n’est pas un bannissement complet de la reconnaissance faciale laisse la porte ouverte à un usage inconsidéré de ces technologies. Si l’argument peut s’entendre, je pense qu’il a aussi un caractère fallacieux, puisqu’il laisse entendre qu’en laissant certaines possibilités ouvertes alors tout devient automatiquement permis.
Certes, en organisant le dialogue, nous contribuons à faire en sorte que le public s’habitue au fait que certaines de ces technologies verront le jour. Mais selon moi l’argument se renverse assez facilement, dans le sens où c’est déjà ce que laissent penser les entreprises qui en sont à l’origine. A minima, nous faisons en sorte qu’une voix citoyenne puisse être entendue dans l’affaire. Et s’il y a bien un consensus quelque part, c’est sur le besoin de mécanismes légaux pour encadrer ces nouvelles technologies.
Quels effets espérez-vous suite à la publication des recommandations ? À quoi ressemblent-elles ?
C’est une bonne question. Et de ce point de vue, le fait que nous soyons pleinement indépendants des instances gouvernementales a ses avantages et ses inconvénients. Étant donné que nous n’avons aucun mandat précis, les dirigeants ne sont pas du tout tenus de tenir compte des recommandations du Conseil biométrique. Cependant, il y a une réelle attente politique sur la participation citoyenne dans ces débats. Le « Biometrics Commissioner » (organe indépendant chargé de superviser le traitement des données biométriques depuis le Protection of Freedoms Act de 2012) a lui-même signifié ce besoin de participation, tout comme l’ont fait de nombreux chercheurs et chercheuses. Bien qu’il n’y ait pas de mandat, les résultats du Conseil font donc l’objet d’un intérêt politique important, peut-être un peu moins chez les conservateurs, mais ce n’est pas une règle absolue.
Nous espérons que ces recommandations pourront venir alimenter de nouvelles législations dans ce moment particulier où la Grande-Bretagne établit une position sur le sujet, notamment sur la biométrie, et où différents organes de régulation sont en train d’être fusionnés (le « Surveillance camera commissioner » d’un côté, le « Biometrics Commissioner » de l’autre). En tout état de cause, le document final sera publié en février. En fonction de l’impact du rapport, nous pourrons estimer s’il est important d’organiser de nouvelles délibérations citoyennes à l’avenir. Et bien que l’objectif soit avant tout de porter ces recommandations au niveau du Royaume-Uni, d’autres pays pourraient être inspirés par ce travail.
***
Ce type d’initiative pourrait bien déjà être en train d’essaimer. Comme nous l’écrivions en introduction, la campagne européenne Reclaim Your Face qui vise à interdire la surveillance biométrique de masse dans l’espace public, et qui regroupe douze associations, a déjà récolté plusieurs dizaines de milliers de signatures. Dans un autre registre, de nombreuses Conventions ou consultations locales sont menées par des mairies françaises autour de la 5G, de la légitimité de son déploiement ou à défaut, de ses modalités de déploiements. Nous continuerons à documenter plus précisément ces formats au cours des mois à venir.
[…] Le « Conseil biométrique » de l’institut Ada Lovelace : exemple de démocratie t… (maisouvaleweb.fr) […]
Excellent article ! Sur ces enjeux si essentiels, voir également cet article extrait de mon ouvrage intitulé » De l’adaptation de l’Etat de droit aux défis du numérique – Analyse du cas particulier de la France » : http://regards-citoyens.over-blog.com/2020/11/mieux-adapter-le-droit-aux-defis-poses-a-l-etat-de-droit-par-le-numerique-analyse-du-cas-particulier-de-la-france-par-patrice-cardot