Les algorithmes nous volent notre hasard et nous nous laissons faire. Une conversation avec Philippe Vion-Dury

Sur internet, nous sommes tous sous l’emprise d’algorithmes divers, c’est un lieu commun. Et c’est justement pour ça qu’il faut l’étudier en détail. Philippe Vion-Dury, journaliste, s’y attelle dans son récent ouvrage La nouvelle servitude volontaire, enquête sur le projet politique de la Silicon Valley (éd. FYP). Engagé et densément référencé, l’essai de Philippe dresse un constat inquiétant : grâce au Big Data, les géants de la Silicon Valley captent notre attention et nous privent de ce qui nous reste de hasard. Ainsi, ils mettent à mal la notion même d’émancipation issue de l’Esprit des Lumières.

Ce qui constitue l’idéal même de la révolution française tient en quelques mots : privilégier ce qu’on choisit et décide soi-même. Mais voilà, avec les algorithmes (ces programmes qui nous orientent dans nos prises de décisions sur internet), nos actions nous échappent parfois. Il devient nécessaire de se demander si l’autonomie individuelle peut souffrir des choix qu’opèrent ceux qui érigent ces algorithmes : est-on toujours pleinement libre lorsque l’on suit les savantes orientations que d’autres pensent à notre place ?

Attention à l’économie de l’attention

Les services tels que Facebook, Spotify, Netflix et les autres ont une particularité : ils calculent et anticipent nos besoins pour maximiser le temps que nous passons chez eux. Ils nous servent ce qui nous plaira à coup sûr et ce faisant, conditionnent fortement ce que nous consommons (information, musique, films, etc.). Leurs fonctionnements laissent peu de place à l’imprévu, même si nous n’en avons pas toujours la sensation.

D’une certaine façon, on peut dire qu’ils sacrifient le hasard pour accoucher d’un monde de probabilités beaucoup plus facilement monétisable. Est-ce une fatalité ?  Doit-on attendre des acteurs de l’internet qu’ils créent un jour des algorithmes réservant une place à l’inconnu ? Quand j’ai posé la question à Philippe, il n’a pas franchement été optimiste :

« Certains défendent que l’on peut faire de « bons » algorithmes qui pourraient créer du hasard… Or simuler le hasard c’est très compliqué, n’importe quel mathématicien le sait. Et d’ailleurs, quand bien même on y arriverait, à qui pourrait-on destiner ces algorithmes ? Il faut savoir que les business models de Facebook, Google et les autres, c’est de capter notre attention. Ils n’ont pas d’intérêt commercial à arrêter de nous cibler. Et soyons honnêtes, un halo de hasard et de découverte par rebond n’a pas sa place dans le cadre d’un système capitaliste « algorithmiquement régulé » où les acteurs qui dominent ont intérêt à créer de la répétition et des comportements moutonniers pour mieux les exploiter dans une logique consumériste. » 

Pas de quoi s’enjailler, mais remettons les choses en contexte. Dans son livre, Philippe Vion-Dury explique comment déjà aujourd’hui, on sait décortiquer les caractéristiques d’un « hit » musical afin de prévoir quelle mélodie sera populaire dans le futur. Anodin en apparence, ce mécanisme fait surtout peser le risque d’une uniformisation sans précédent sur la culture et la diversité musicale. Pourquoi tenter d’être original quand on connaît la recette du succès ?

De la même manière, les séries télévisées sont calibrées et modifiées algorithmiquement pour coller à nos goûts. Sur Netflix par exemple, nos  habitudes de consommation sont décortiquées pour que la plate forme sache exactement quoi nous proposer dans le futur. Ainsi, 75% de ce que nous regardons sur la plate forme est prévu par des algorithmes sans que nous le sachions. Ces dispositifs participent de ce qu’il convient d’appeler l’économie de l’attention : sur internet, tout est fait pour que l’utilisateur reste le plus longtemps possible sur un service donné, même si cela se fait au détriment de sa santé psychique (oui, c’est le fameux « temps de cerveau disponible », rien de neuf sous le soleil).

Du ciblage à l’enfermement numérique

Cibler un individu pour lui proposer un contenu qui lui plaira a priori revient à l’enfermer dans des choix que l’on suppose à sa place. Ce « biais de confirmation » comme l’appelle Philippe, nous place de une « bulle filtrante », un essaim informationnel duquel il est difficile de sortir pour respirer un autre air que le sien propre. C’est cette même bulle qu’on a accusé un peu vite d’avoir provoqué l’élection de Donald Trump. Comment se créent ces filtres ?

« Le premier filtre est en nous.  Nous sommes des êtres situés socialement : entourage, profession, etc. Et donc les « biais de confirmation » sont d’abord des choix déterminés par l’individu lui-même. Mais le renforcement technologique est immense, il ne faut pas le nier. Le premier problème est que les gens n’en ont pas conscience. Par exemple, les journalistes qui se sont étonnés de ne pas voir d’électeurs de Trump autour d’eux montrent qu’ils se sont mis sur un réseau qu’ils ont pris pour une vérité absolue, c’est illusoire. Ensuite, ce qui est inquiétant, c’est qu’aux États-Unis 40% des gens prennent leurs informations depuis Facebook ! » 

Ce poids démesuré de Facebook dans la transmission d’information m’amène à demander à Philippe si l’entreprise ne devrait pas faire face à ses responsabilités et changer ce mode de fonctionnement. Bien sûr, il n’y croit pas du tout :

« D’un point de vue pratique, c’est très intéressant de voir que Facebook qui s’est longtemps considérée comme un média « le journal de tous » se définit d’un coup comme une entreprise de technologie et se dégage de sa responsabilité médiatique. Laisser Facebook modifier son algorithme de son côté, c’est vain. On pourrait imaginer des conseils éthiques pour superviser ça, après tout il y en a dans la Presse avec le SNJ (syndicat national des journalistes). Facebook ne se régule pas car il ne contient pas ces contre-pouvoirs. » 

Mais alors, peut-on modifier la façon dont nous créons des services pour mieux respecter le temps des individus ?

C’est paradoxal, ou peut-être pas tant que ça, mais à mesure que l’emprise des algorithmes croît, j’ai la sensation qu’une forme de prise de conscience est en marche. On a vu récemment un ancien de chez Google, Tristan Harris, proposer une charte « Time Well Spent » appelant à envisager un autre rapport à la technologie et au temps qu’elle peut nous prendre.

D’une part, il propose de repenser son usage à travers plusieurs actions concrètes (différencier le vibreur d’une notification inutile de celui d’un SMS important). D’autre part, il appelle à créer des produits plus respectueux de l’utilisateur final et de son temps. Il s’agirait en quelque sorte de modifier le design et nos usages pour ne plus se faire happer par la technologie. On appelle aussi ça l’éthique By Design. Est-ce une voie de sortie ? Philippe n’est pas convaincu :

« Bien sûr, il y a toujours des gens conscients, il n’y a pas les gens méchants et les gentils. Peut-être des services plus propres ou équitables viendront, mais le capitalisme a l’habitude d’intégrer la résistance comme un nouveau moyen de consommation… C’est le risque avec ce genre de solutions. Si l’utilisateur ne prend pas la décision lui-même de changer ses usages et si le modèle est toujours celui de l’attention, ça ne résout rien. Suite à une prise de conscience du public par exemple, Facebook a créé des outils pour améliorer sa confidentialité et rendre privés des messages qui étaient publics. J’ai essayé cette manipulation, j’ai dû m’y prendre message par message ! Ça m’a pris des heures, tout est fait pour qu’on ne puisse pas le faire. » 

Sur son site, Tristan Harris présente Time well spent comme un label comparable à celui du green (quand on voit le désastre du green-washing, on peut se demander légitimement s’il ne s’agit pas là d’« attention-washing » )

green_labels_organic_leed_timewellspent

D’où vient ce monde qui veut tout prévoir ?

J’ai comme un sentiment de désespoir. Je n’ai de cesse de me demander si des modèles conciliant économie de l’attention et respect du consommateur-citoyens sont réellement en voie d’apparition sur internet. Après tout, les acteurs de l’économie n’ont pas attendu le web pour s’organiser en coopératives.

Récemment, je discutais avec le fondateur de Le même en mieux, cette start-up qui se positionne comme un « assistant d’achat indépendant sur internet ». Son objectif : rediriger les internautes quand ils sont sur un site marchand majeur (Amazon, SNCF, etc.) et qu’une alternative plus éthique, écologique ou moins cher existe. Mais force est de constater que dans ce cas également, le modèle est celui de l’attention, la finalité celle de la consommation. C’est « toujours mieux », mais pour Philippe ça ne change pas fondamentalement la problématique.

Le Même en mieux, cette startup qui désintermédie les acteurs du ecommerce (en savoir plus)

lmem

Philippe Vion-Dury est loin d’être le seul à pointer opérer une critique pointue sur le pouvoir de nos technologies. Dans la tradition intellectuelle d’un Jacques Ellul ou d’un Evgeny Morozov, il est un personnage radical. Pour lui, notre incapacité à changer est une conjonction de plusieurs facteurs que l’on maîtrise plus ou moins, il en cite deux :

  • La maternalisation du pouvoir

Nous serions passés d’une société patriarcale à une société matriarcale : ce nouveau pouvoir n’est pas coercitif mais diffus. Il suggère et séduit plutôt qu’il force. Il «  pousse » les individus à adopter certains comportements et préfère la culpabilité à la réprimande. Ce modèle de pouvoir, c’est celui de la Silicon Valley. Il s’exerce avant tout parce que utilisons volontairement les outils de nombreuses start-ups au quotidien qui fournissent indéniablement des services pointus et performants.

  • Notre goût démesuré pour le confort et le retour du même

Directement lié au premier point, notre propension naturelle à nous laisser bercer par la technologie nous nuit. Pour autant, il ne faut pas considérer que notre servitude repose sur un choix conscient : cette propension à la flemmardise est renforcée par les procédés algorithmiques qui nous confortent dans cette bulle de confort.

« L’important est de comprendre que la figure de Big Brother, servie à toutes les sauces, ne peut plus tout expliquer »

Pour faire court, nous serions passé de la figure de Big Brother à celle de Big Mother. Cette dichotomie mérite néanmoins quelques éclaircissements et nuances témoigne Philippe :

« Big Brother et Big Mother ne sont pas du tout des concepts scientifiques et il ne s’agit pas non plus de sexualiser le pouvoir. Ce sont des repères symboliques. L’important est de comprendre que la figure de Big Brother, servie à toutes les sauces, ne peut plus tout expliquer. J’ai relié Big Brother à la société disciplinaire patriarcale décrite par Foucault, c’est un pouvoir « top-down », il enferme, oblitère et fait disparaître l’individu. Je lui préfère l’analyse psychologique de Slavoj Zizek pour qui définit un pouvoir « maternalisant » en reprenant la figure de la mauvaise mère. Ce pouvoir est présent dans les mécanismes de « nudging », cette petite poussée qui suggère de faire quelque chose et qui fait culpabiliser quand on ne le fait pas. » 

Le « nudging » est très présent dans le secteur de l’assurance où par exemple, on vous fournit gratuitement un bracelet électronique pour mesurer vos constantes vitales. En échange de ce suivi à distance, on vous promet des réductions tarifaires si vous adoptez des comportements vertueux.

A l’inverse, si vous ne respectez pas les conseils de votre assureur, vous pourriez risquer d’être virtuellement puni. En creux, c’est la prévision qui prend le pas sur le hasard et la liberté individuelle. Ces nouveaux types d’incitation sont au moins aussi efficaces que des ordres directs. Pour Philippe, ce genre de pouvoir ouvre la voie à un « hygiénisme punitif » totalement incompatible avec l’idéal d’émancipation. Cet idéal ne se satisfait ni de Big Brother, ni de Big Mother.

1984, image du filmdepuis le Roman d’Orwell.
« Big Brother is watching you » : une grille d’analyse trop limitée pour penser le techno-pouvoir des entreprises du numérique

1984

Pourquoi devons-nous renouer avec le hasard ?

La question devient lassante tant on la pose : pourquoi laisser une place au hasard ? Pourquoi, finalement, ne pas se laisser happer par le confort technologique qui sait tout à l’avance ? Comment gérer nos dissonances cognitives entre idéal de liberté et le goût pour l’imprévu ? C’est peut-être juste une question de valeur. Philippe  Vion-Dury lui, ne se satisfait pas de se savoir piloté à distance par des firmes américaines, me dit-il :

« Microsoft est le plus gros employeur d’anthropologues après l’Etat aux USA, cela prouve bien qu’on fait tout pour comprendre le fonctionnement de l’homme. La doxa dit qu’on le « remet au centre » mais c’est surtout une manière d’apprendre à capter son attention avec d’autant plus d’efficacité. »  

Et poursuit :

« La dimension du hasard est fondamentalement anthropologique et naturelle. L’idéal d’autonomie lui répond car il promeut un homme maître de son destin à l’intérieur de ses contraintes. Je ne dis pas qu’on se serait sournoisement fait braquer noter autonomie par des entreprises, mais nous devons comprendre qu’elles renforcent une tendance humaine, nécessaire à l’homme mais dangereuse pour la liberté. Oui, nous devons prévoir, compter sur une certaine sécurité, mais la vie ne doit pas se résumer à ça ! C’est pourtant le modèle technologique qu’on nous vend, c’est un véritable contre-idéal. » 

En terminant cette conversation passionnante avec Philippe Vion-Dury, j’en comprends aussi les limites. Si le contre-modèle qu’il défend réside dans quelques grandes et belles idées, il ne s’ancre que trop peu dans le domaine du réel. Philippe est le premier à l’admettre, il ne prétend d’ailleurs pas avoir de recettes miracles pour le futur. En revanche, il planche déjà sur un autre ouvrage qui cette fois, se concentrera sur les alternatives qui naissent en coulisse et les technologies qui n’étouffent pas l’autonomie de l’individu. Il cite à ce titre Ivan Illich qui appelait à créer des une « société conviviale, où l’homme contrôle l’outil » et non pas l’inverse.

Au sortir de la critique pure, la difficulté est de concevoir que la solution réside en nous-mêmes. L’humain doit devenir plus humain encore pour transformer ses bonds technologiques en véritables progrès. Dépassé, il cherche à courir plus vite que la machine sans comprendre que c’est vers lui-même qu’il devrait courir, grandir intérieurement et pas que technologiquement.

La nouvelle servitude volontaire, enquête sur le projet politique de la Silicon Valley (éd. FYP)

servitude-volontaire_couv

Image en tête d’article Jackson Pollock  n° 11, peinture par projection (dripping), peinture au hasard. NGA© 

S’abonner
Notifier de
guest
15 Commentaires
Inline Feedbacks
View all comments
Marie
7 années il y a

Je suis d’accord avec cette analyse. Matthew Crawford, dans Contact, compare même à notre expérience avec les réseaux sociaux à celle qu’éprouve un joueur devant les machines à sous, qui sont également conçues pour rendre le joueur addict, non plus au fait de gagner ou pas, mais tout simplement à appuyer une fois de plus le bouton. On peut imaginer qu’avec le développement des objets connectés, la sophistication de l’I.A. et des « bots » de plus en plus anthropomorphique, c’est toute notre expérience du réel qui se trouvera modifiée : nous ne serons plus en contact qu’avec un monde fluidifiée, optimisé spécialement pour nous. Nous serons alors privé des aspérités du réel, dans notre relation au monde, mais surtout dans notre relation aux autres (cf le film Her, que je pense être prophétique). Quant aux réponses à apporter…ce serait un autre débat.

trackback

[…] la machine» Design Thinking en un clin doeil. Veille et Analyses de l'ifé. AGRI OPEN PITCH. Les algorithmes nous volent notre hasard et nous nous laissons faire. Une conversation avec Philippe… […]

trackback

[…] Journal of Digital Curation. Journal of Information Literacy. Moteurs. Les algorithmes nous volent notre hasard et nous nous laissons faire. Une conversation avec Philippe… […]

Germain Huc
7 années il y a

Par moi ton dernier paragraphe est le plus important.

Il me semble que l’être humain n’a jamais eu autant besoin de se trouver une éthique personnelle, un code de conduite, presque une « discipline de vie », pour reprendre le contrôle de son existence, pour être le plus libre possible.

Pour cela, il devrait se servir de ce qui fait sa plus grande force : son cerveau. Mais également en concilier les productions avec son « cœur », son empathie, sa « morale ». La technologie a tendance a créer sa propre « morale », et nous, désorientés et émerveillés que nous sommes dans ce monde foisonnant, nous en oublions la nôtre, si nous en avions jamais eu une.

Force est de constater que ce n’est pas facile. Tout est si nouveau, tout change si vite, que penser chaque bouleversement, parfois sournois, que chaque innovation entraîne, devient une exigence parfois pesante.

Ne pas prendre son portable avec soi à chaque fois que l’on sort, procrastiner devant une réponse à un mail, ne pas répondre, parfois. Pour le moment j’en suis là. Je cherche encore une meilleure hygiène de vie.

trackback

[…] en règle du penseur rejoint la charge plus journalistique de Philippe Vion-Dury, La nouvelle servitude volontaire, enquête sur le projet politique de la Silicon Valley (FYP Éditions), ou le brillant, rigoureux et plus scientifique Cerveau augmenté, homme diminué […]

trackback

[…] Philippe Vion-Dury, journaliste, auteur de La nouvelle servitude volontaire : enquête sur le projet politique de la Silicon Valley […]

trackback

[…] assiste à un nouveau type d'"hygiénisme punitif", pour reprendre l'expression du journaliste Philippe Vion-Dury dans son ouvrage La nouvelle servitude volontaire, enquête sur le projet politique de la Silicon […]

trackback

[…] le projet idéologique de la Silicon Valley, du journaliste Philippe Vion-Dury, déjà interviewé ici il y a quelques […]

trackback

[…] « Si on fait un calcul rapide, on constate que Facebook fournit un service qui coûte environ 5 euros par an par individu. En gros, vous avez donné toutes vos données personnelles, toute votre vie, en échange de 5 euros par an ». Ce cercle vicieux de la donnée (vous donnez votre vie aux GAFAM, qui la donnent aux services de renseignements), créé un lien direct entre votre smartphone et une société totalitaire. Société totalitaire que l’on embrasse avec plaisir, ce que Philippe Vion-Dury nomme la nouvelle servitude volontaire. […]

trackback

[…] dépendance et de votre aliénation ». Ici, l’auteur ne dit rien d’autre que ce qu’assène Philippe Vion-Dury quand il accuse ces mêmes algorithmes d’aller contre l’autonomie héritée de l’esprit des […]

trackback

[…] comme un réseau silencieux plutôt qu’expressif, un fait de nature à relativiser le poids des mécanismes algorithmiques  (ou plutôt l’étendue de la cible qu’ils […]

trackback
6 années il y a

[…] Au premier abord, LMEM (Le même en mieux) semble faire le même job qu’un comparateur de prix ou un guide d’achat. Cliquez pour agrandir. Les algorithmes nous volent notre hasard et nous nous laissons faire. Une conversation avec Philippe…. […]

trackback

[…] Les algorithmes nous volent notre hasard et nous nous laissons faire. Une conversation avec Philippe…. Sur internet, nous sommes tous sous l’emprise d’algorithmes divers, c’est un lieu commun. Et c’est justement pour ça qu’il faut l’étudier en détail. Philippe Vion-Dury, journaliste, s’y attelle dans son récent ouvrage La nouvelle servitude volontaire, enquête sur le projet politique de la Silicon Valley (éd. FYP). Engagé et densément référencé, l’essai de Philippe dresse un constat inquiétant : grâce au Big Data, les géants de la Silicon Valley captent notre attention et nous privent de ce qui nous reste de hasard. Ainsi, ils mettent à mal la notion même d’émancipation issue de l’Esprit des Lumières. […]

trackback

[…] conseille vivement la lecture de cet article passionnant qui a inspiré ce billet, “Les algorithmes nous volent notre hasard et nous nous laissons faire.” paru sur le site maisouvaleweb.frOn y apprend par exemple que 75% de ce que nous regardons […]