Retour sur l’atelier « services numériques, quels enjeux éthiques ? Comment les repenser ? »

Avec l’association Chiasma et dans le cadre de la conférence dédiée à la conception numérique responsable et durable Ethics by design, Le Mouton Numérique proposait un atelier de déconstruction d’une application suivant la problématique suivante : « Services numériques, quels enjeux éthiques ? Comment les repenser ? ».

Le Pitch : Quelles sont les questions éthiques posées par certaines applications numériques ? Comment en prendre conscience et dans le meilleur des cas, tenter d’y apporter des réponses concrètes de façon structurée ? Cet atelier organisé par les associations Chiasma et Le Mouton Numérique met les participants en situation de revisiter la conception d’une application après en avoir questionné les fondements éthiques. Articulant biais individuels et problématiques collectives, le format opère un 360° autour de la pratique du design, par le designer lui-même, sans oublier de le re-situer dans un contexte qui le dépasse.

Voilà quelques années déjà que les questions relatives à l’économie de l’attention (voir notamment les travaux d’Yves Citton) ont été mis sur le devant de la scène. Par économie de l’attention, on entend le mécanisme par lequel l’offre de services numériques, médiatiques, télévisuels est devenue abondante, et se focalise désormais vers la captation d’une ressource qui tend à devenir rare : l’attention. C’est le fameux « temps de cerveau disponible » de Patrick Lelay, à l’époque PDG du groupe TF1.

Pour rafler cette part d’attention, certains services numériques usent de procédés ergonomiques et design dont l’objectif est de retenir les utilisateurs sur un service. C’est le cas de l’« infinite scroll » de Facebook ou encore des notifications en tous genres auxquelles il est devenu difficile d’échapper. Ces procédés ne sont pas les seuls fruits du hasard, mais bien les résultats d’études portant sur le cerveau humain. Une discipline est même dédiée à ces recherches : la captologie (issue du Persuasive Tech Lab de Stanford). Les techniques captologiques permettent d’ « accrocher » les utilisateurs à un service, ce qui donne lieu de nouveaux phénomènes. On parle par exemple de « Fear of missing out » (FOMO) pour décrire ce besoin urgent d’être en permanence au courant des nouvelles qui circulent sur les réseaux sociaux (d’où la grande difficulté à s’en éloigner plus de quelques minutes). Un certain nombre de possesseurs de smartphones souffrent quant à eux du syndrome de « vibrations fantômes », qui se manifeste lorsque l’on sent son téléphone vibrer alors même que ce n’est pas le cas. Et comment ne pas mentionner le « binge-watching », qui consiste à regarder une série télévisée d’une seule traite (une pratique aussi ancienne que les séries elles-mêmes, et à laquelle un service comme Netflix n’aura pas dérogé… En proposant tous les épisodes d’une série au même moment, la firme de Los Gatos s’est parfaitement inscrite dans l’économie de l’attention alors émergeante. Bref, ces effets commencent à être connus du grand public (en tout cas des personnes mobilisés dans la conception de services numériques), il s’agit maintenant de passer à l’étape suivante.

Déconstruire pour mieux comprendre 

Comment bien comprendre les choix de conception qui relèvent de la captologie ? Que disent-ils de la société qui les a vu émerger ? Peut-on penser des services respectueux de l’attention de l’utilisateur ? Ces trois questions sont au centre de l’atelier que nous avons mis en place avec Albert Moukheiber, psychologue clinicien et fondateur de l’association Chiasma. Cet exercice s’inscrit dans les travaux déjà effectués par la FING dans le cadre du chantier « Rétro-design de l’attention ». L’idée est de déconstruire puis reconstruire une application (en l’occurence Netflix, mais nous aurions pu prendre n’importe quel grand acteur du numérique) afin de concevoir un service plus proche des considérations éthiques émises par les groupes de travail.

Avant d’entrer dans le dur du sujet, nous avons pris le temps d’ouvrir les grandes questions éthiques qui surgissent lorsqu’on s’intéresse aux nouvelles technologies. Pour résumer, nous cassons quelques mythes encore tenaces : non, les technologies ne tombent pas du ciel, elles ne suivent pas une progression linéaire et naturelle allant vers plus de « progrès ». Bien au contraire : les technologies sont des constructions humaines qui s’imprègnent des valeurs de leurs concepteurs et dont les effets dépassent largement le projet initial. Corollaire : le monde technologique dans lequel nous baignons aurait pu être autre, pourra être autre, si toutefois nous saisissons l’opportunité de le changer. Et pour cela, la première étape est de convenir que la technologie est avant tout un objet politique[1].

La seconde partie de notre introduction consiste à expliquer plus clairement ce que sont les biais cognitifs, ces mécanismes de la pensée qui causent une déviation du jugement. On en dénombre 150 qui ont donné lieu à des études remarquées, notamment en économie comportementale. Fait notable : en 2002 le prix Nobel d’économie est attribué à un psychologue, Daniel Kahneman qui dans son stimulant ouvrage Système 1 système 2, liste et explique un certain nombre de biais cognitifs communs qui témoignent des limites de notre libre arbitre au quotidien. Ces travaux seront repris par l’économiste Richard H. Thaler, également nobélisé en 2017 pour sa « compréhension de la psychologie de l’économie ». Comme ne manque pas de le rappeler Albert Moukheiber, les biais cognitifs ne sont pas « mauvais » en soi, ils sont même nécessaires au fonctionnement de notre cerveau, mais un dessin vaut mieux qu’on long discours :

 La carte des biais cognitifs

Passer à l’action

Après cette double introduction présentant les enjeux éthiques des technologies et les principaux biais cognitifs actionnables par les acteurs du numérique, le travail commence. Nous structurons l’atelier en trois grandes étapes :

  1. Déconstruction : écran par écran, les groupes de travail répertorient ce qui fait qu’une interface graphique capte l’attention, enferme l’utilisateur dans un environnement ou le guide dans une direction plutôt qu’une autre (sans forcément lui demander si c’est vraiment là ce qu’il cherche à faire). Nous proposons ces écrans sans parti-pris ni jugement moral, chacun peut y voir ce qu’il veut, il convient juste de relever les procédés qui utilisent nos biais cognitifs.
  2. Compréhension profonde des sujets éthiques : à partir de procédés relevés, les utilisateurs sont amenés à projeter les effets qu’ils pourront avoir sur les utilisateurs, mais aussi sur la société. Ce saut quantique entre perception individuelle et impacts collectifs est difficile à appréhender. Bien souvent, on fait de l’économie de l’attention une question individuelle, renvoyant les utilisateurs à leur responsabilité, ce qui donne : « vous pouvez toujours éteindre votre téléphone si vous n’êtes pas satisfait de nos services». Ce qu’il faut saisir, c’est qu’une conduite individuelle a toujours un effet collectif. Exemples : le fait de rester plus longtemps sur un service numérique a un impact écologique non neutre, le fait de privilégier un seul service pour regarder films et séries a un effet sur la création artistique.
  3. Reconstruction : les participants à l’atelier sont invités de redessiner le service qui selon eux, répond aux problématiques éthiques précédemment soulevées tout en permettant à l’utilisateur de bénéficier d’une navigation fluide.

Nous avons proposé à nos participants une petite dizaine d’écran Netflix, certains plutôt évident à appréhender (compteur à la fin d’un épisode pour lancer le suivant), d’autres plus subtils (couleur de l’écran en fonction de l’âge ou du sexe). Bien sûr, les participants eux-mêmes n’ont pas les mêmes appréhensions face à ces écrans : c’est là que le débat éthique prend toute sa dimension politique : critique le fonctionnement d’une application comme Netflix peut nous mener très loin, en tout cas bien plus loin que la seule question du design. C’est aussi là tout l’intérêt de notre atelier.

Quant aux réalisations, elles sont très concrètes. Nous avons par exemple proposé un écran dans lequel l’utilisateur saisit la requête « Bourvil » dans le moteur de recherche. Netflix n’ayant aucun résultat de cette nature (même pas La grande vadrouille), il vous propose d’autres films jugés comiques (Jim Carrey au premier plan). Ce comportement peut sembler naturel mais pose une sérieuse question économique : pourquoi Netflix ne nous proposerait pas de sortir de son service afin de regarder un film avec Bourvil ailleurs ? Sur l’INA ? YouTube ? etc. A partir de quand décide-t-on d’enfermer l’utilisateur et donc, de ne plus respecter pleinement ses envies, au prix d’un choix par défaut ? Pourquoi ne pas saisir cette opportunité pour renvoyer les utilisateurs à un autre service moyennant une stratégie d’affiliation ? Les écrans proposés au cours de l’atelier sont évocateurs :

Avec ces écrans, les participants proposent à l’utilisateur de façon transparente d’opter pour un autre choix de comédie sans lui imposer un résultat. Le cas échéant, d’aller au cinéma, de bénéficier de prix négociés sur d’autres formats.

Autre situation qui a suscité son lot de débat : doit-on confier à l’utilisateur la gestion de son temps personnel sur Netflix ? Dans quelle mesure le considère-t-on « victime » du service ou agissant en pleine possession de ses moyens ? Bien sûr, c’est toujours une part des deux. Cependant, intégrer un système d’alerte dans Netflix a été une piste creusée par plusieurs groupes : rappeler à l’utilisateur qu’il a déjà regardé trois épisodes, lui donner à l’avance l’heure à laquelle le prochain épisode terminera, offrir la possibilité de paramétrer des seuils (heure à partir de laquelle le système vous notifie), etc. Autant de petites solutions qui commencent à être mises en place ici et là.

Ces écrans rassemblent quelques idées d’auto-régulations possibles par un paramétrage individuel. Par défaut, les mécanismes qui poussent un prochain épisode automatiquement sont désactivés.

Ces réalisations illustrent très bien la plus ou moins grande capacité que nous avons de passer de la conduite individuelle aux effets collectifs. Soyons clairs : repenser le monde à partir d’un seul écran, c’est compliqué. Mais repenser un business model, c’est possible. Repenser une régulation, ou même une loi, c’est faisable aussi. Bien souvent, nous nous arrêtons à la régulation individuelle qui, certes est pertinente dans une application, mais ne repose que sur la bonne volonté des éditeurs de logiciel.

Ce que nous nous efforçons de faire au Mouton Numérique (et avec Chiasma dans le cadre de cet atelier), c’est de tirer les logiques captologiques (via des interfaces ou bien des algorithmiques) jusqu’au bout : que disent-elles du monde dans lequel nous vivons ? Quels projets contiennent ces dispositifs pour les personnes qui les utilisent ? Dans quelle mesure des régulations légales peuvent-elles contraindre leurs concepteurs afin de redonner de la liberté à l’utilisateur : la liberté d’utiliser un service ou de ne pas l’utiliser. Il est grand temps de concevoir des services en dehors du seul cadre de l’économie de l’attention : nous en sommes arrivés à un point où l’ensemble des forces productives dans le numérique travaillent à rendre dépendants les utilisateurs plutôt qu’à renforcer leur autonomie, les rendre heureux ou mieux informés. C’est bien ce combat qu’il faut mener aujourd’hui, pour que la technologie soit de nouveau au service des humains, et pas au seul bénéfice de la logique économique qui motive leurs concepteurs.

Le Mouton Numérique est susceptible de dispenser de nouveaux ce genre d’atelier, notre mail :

Le support présenté pendant l’atelier :

[1] Pour poursuivre sur ces considérations, vous pouvez voir cette vidéo de Yaël Benayoun ou encore cet article sur la démocratie technique.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *