La société des calculs sous la loupe de la sociologie – A quoi rêvent les algorithmes – Dominique Cardon [lecture]

A quoi rêvent les algorithmes philip K dick

Le petit monde du Big Data et des algorithmes a désormais sa rockstar : Dominique Cardon. Sociologue au département SENSE d’Orange Labs et professeur associé à l’université de Marne-la-Vallée, son dernier ouvrage A quoi rêvent les algorithmes, nos vies à l’heure des Big Data, Paris, Seuil, 2015, dépouille consciencieusement le fonctionnement des rouages numériques qui façonnent notre expérience d’Internet.

Mais qu’est ce qu’un algorithme ? Car oui, avant d’entrer dans le coeur du sujet, il s’agirait d’en comprendre les fondements. Selon l’informaticien Gérard Berry, un algorithme est « (…) tout simplement une façon de décrire dans ses moindres détails comment procéder pour faire quelque chose ». Sur Internet, les algorithmes permettent par exemple de hiérarchiser des contenus (ceux que publient vos amis dans votre flux Facebook, les résultats de Google suite à une requête) ou encore de décider de la nature d’une publicité ciblée à afficher sur la bannière d’un site de e-commerce lors de votre navigation.

En clair, les algorithmes sont partout. Leur relative autonomie et les nombreux biais qui les caractérisent ont un impact non négligeable sur la façon dont nous accédons à l’information. Pour autant, ils sont loin d’êtres d’obscures formules magiques et s’inscrivent dans un environnement technique donné, un « technocosme ». Par ailleurs, le fonctionnement des algorithmes reflète les choix des humains qui les ont conçus et sont donc par nature éminemment politiquesC’est ce que démontre méthodologiquement Dominique Cardon en s’attaquant à ces questions phares : que sont les algorithmes ? Que savent-ils sur nous et qu’en font-ils ? En quoi téléguident-ils nos comportements, et quel degré de conscience en avons-nous ?

Une vue synoptique de la production de calculs à partir des données 

Pour répondre aux questions listées plus haut, la première partie de l’ouvrage est dédiée à l’établissement d’une matrice décrivant de manière exhaustive les modes de calculs issus de l’utilisation des données collectées ici et là. Selon le sociologue, il y aurait quatre façons de « compter » les données sur Internet, chacune optant pour un angle de vue différent : à côté d’Internet, au dessus d’Internet, à l’intérieur d’Internet, en dessous d’Internet. Ces quatre modes de calculs étant eux mêmes disposables sur une échelle de temps, les derniers étant les plus récents. Entrons dans les détails :

1) A côté d’Internet – Il s’agit ici de mesurer les clics. Les biais : la mesure est imprécise (on ne sait jamais qui est derrière l’écran ni ce que réprésente réellement un clic) et peut être déjouée afin de générer de l’audience (on appelle ça du « clickbait », ou moins élégamment des articles « putaclics »).

2) Au dessus d’Internet - Il s’agit ici du modèle de Google, la reconnaissance par pointage. L’intelligence collective détermine quel site Internet mérite de la visibilité en pointant vers ce site; plus un site est cité, mieux il est référencé. Les biais : les webmestres connaissent assez bien l’algorithme pour le tromper (technique de Search Engine Optimization ou SEO).

3) A l’intérieur d’Internet – On parle ici des « Likes » et des « Retweets », sortes de gratifications sociales ou « gloriomètres » que permettent les réseaux sociaux. Les biais : ces comptages rendent les Internautes calculateurs et il est difficile de savoir quel crédit donner à ces micro-appréciations. A ce titre, Twitter a récemment supprimé la fonctionnalité de comptage des partages via son réseau sur les sites Internet (ce qui n’était pas le cas lors de la sortie du livre).

4) En dessous d’Internet – Ce dernier mode de comptage fait remonter les traces disséminées par les internautes. Ces traces permettent de créer des modèles prédictifs : « le futur de l’internaute est prédit par le passé de ceux qui lui ressemblent ». C’est grâce à ces méthodes que des entreprises comme Netflix ou Amazon se targuent de savoir ce que vous allez regarder, et pensent même à vous l’envoyer avant que vous ne l’ayez acheté. Les biais : ces algorithmes pensent le futur comme une reproduction du passé, or les choses sont un peu plus compliquées.

Matrice Dominique Cardon

Cette typologie a le mérite de montrer que pour chaque type de calcul, il faut compter avec de nombreuses imperfections. La manie de tout calculer conduit parfois à des méthodes de comptage inopérantes et absurdes car les Internautes et les professionnels de la publicité sont loin de n’être que des automates aux comportements prévisibles et réplicables. Chacun produit sa part de hasard et fraude les systèmes de comptage à des fins personnelles ou commerciales.

Pour autant, nous n’en avons pas fini avec la culture du benchmarking, les nouveaux algorithmes portent même leurs ambitions plus loin : ils veulent mettre la société en nombre pour agir sur elle et influencer les comportements des individus. A ce titre, Dominique Cardon fait plusieurs constats :

Les algorithmes sont à l’image de nos sociétés, donc ils peuvent être bêtes

En effet, les mesures des acteurs du net ne sont pas neutres mais reflètent en réalité les stratégies des individus qui les mettent en place ou celles de ceux qui tentent de les déjouer. Dès lors, les algorithmes forcent les traits du réel. Par exemple, le système de classement de Google – le Pagerank - produit une redoutable polarisation de la visibilité en survalorisant les acteurs les plus connus et en oubliant les autres. En outre, ceux qui sont armés pour défier l’algorithme de Google dominent le marché sans forcément répondre aux critères de qualité justifiant une visibilité importante. Dominique Cardon précise à ce sujet que « dans ce grand écart, nos sociétés sont en train d’oublier la moyenne ».

On pourrait reprocher à la firme californienne de perpétuer ainsi une culture du « winner takes all » proprement étasunienne. Comme à la télévision, 1% d’une catégorie dispose de 90% de l’audience et laisse les autres sur le carreau, ce qui revient à installer et faire perdurer une petite aristocratie sur le réseau prétendument ouvert et égalitaire qu’est Internet (la neutralité sur la toile impose un traitement égal pour chaque parcelle d’information transmise d’un point A à un point B).

Par ailleurs, les comportements des masses dirigent parfois les suggestions du moteur de recherche. Par conséquent, des comportements douteux mais répandus amènent des suggestions douteuses également (comme l’ajout de la mention « juif » après un prénom). Les algorithmes peuvent parfois être idiots.

Les algorithmes n’anticipent pas le réel, ils le reproduisent 

En se défaisant des anciennes catégories sociologiques aux mailles trop grosses, l’ultra-personnalisation permise par les big data autorise une mesure du réel, c’est à dire de ce que font les individus et non pas de ce qu’ils disent faire. Cette méthode censée s’extirper « des préjugés politiques et sociaux » reproduit pourtant bel et bien les structures sociales existantes. On notera par exemple que les algorithmes de Facebook et Twitter nous poussent nous des contenus que nous consultons déjà, le réseau nous « emprisonnent dans notre conformisme ». Or quand le futur est calculé à partir du passé, quelle place attribuer aux bifurcations ?

Netflix, Spotify et les autres services proposant des contenus multimédias agissent de façon similaire : ils tendent à proposer leurs contenus en comparant des profils (si un utilisateur aime A, B et C, alors il y a des chances qu’il aime également E ou F car d’autres utilisateurs au profil similaire aiment E ou F). Ces prédictions dénotent le caractère absolument probabiliste des algorithmes qui n’ont que faire des déterminations causales : seules comptent les conséquences et l’efficacité du ciblage.

Ce dernier point est aux fondements même du big data : les causes importent moins que les effets. Cette nouvelle culture de la statistique relègue les sciences sociales au second plan en instituant que seuls comptent les faits. C’est un véritable changement de paradigme car si seuls les faits comptent et non plus les causes, alors on est tenté de ne traiter que les effets d’un problème sans chercher à en comprendre l’origine (c’est notamment l’objet du « nudging » qui revient à inciter à adopter des comportements via une forme de « paternalisme numérique »).

En pointant ce biais, Dominique Cardon rejoint les analyses de l’intellectuel biélorusse Evgeny Morozov pour qui lesdites méthodes de nudging reviennent à considérer que l’on peut faire de la politique sans politique. C’est à dire sans s’intéresser aux causes des problèmes, comme si la société s’actionnait et se modifiait au moyen de curseurs soigneusement disposés.

Les algorithmes font prévaloir la culture du buzz

De façon similaire, le sociologue constate que des réseaux sociaux tels que Facebook et Twitter valorisent les « pics d’audience » et délaissent des mouvements de fonds s’ils ne sont pas assez « percutants ». Un événement qui n’est pas repris par tous au même moment a peu de chance de remonter autant dans votre fil d’actualité qu’un mouvement de foule numérique « exponentiel », c’est donc la culture du buzz qui prévaut.

On comprendra que cet élément, tout comme les précédents, répond à une logique de marché et d’acquisition de parts d’audience. Les services web et les régies publicitaires ne font pas dans la philantropie, ils sont là pour maximiser leurs revenus publicitaires et emploient pour cela des stratégies de « retargetting » parfois à la limite de la légalité. Les nombreuses données des internautes collectées au fil de leur navigation par des cookies (petits fichiers espions envoyés dans votre navigateur) permettent un ciblage permanent et rendent la course au temps de cerveau disponible bien plus efficace.

Contre cette ultra-personnalisation, Dominique Cardon rappelle que 30% des internautes français sont équipés d’un ad-blocker, un petit logiciel permettant de bloquer les publicités intempestives sur Internet. Piètre défense cependant, surtout à l’heure où de grands médias refusent l’accès à leur site à ceux qui ont installé de tels logiciels (c’est le cas chez Wired).

Un ouvrage dense et méthodologique qui constitue une base solide pour construire une critique argumentée 

En finissant ces quelques cent pages, on est surpris par la densité du propos de Dominique Cardon qui balaye de nombreuses questions numériques en peu de mots. Le sociologue rappelle avant tout que les algorithmes sont des instructions données par des humains à des machines et qu’à ce titre, ils relèvent de choix de société. On ne le dira jamais assez, la technologie n’est pas neutre.

Par ailleurs, s’il est question de mettre à nu les entrailles des algorithmes qui font Internet, l’ouvrage ne tombe pas pour autant dans le pessimisme technologique ni ne frôle la technophobie. Dominique Cardon parvient à décrire les forces en présence et les grandes questions sociétales que leurs rapports imposent. Aussi, le propos n’est pas de dire que les algorithmes nous dominent ou nous gouvernent de leurs petites pattes numériques, même s’il faut saisir qu’à trop leur déléguer sans en changer la forme, ils tendront à nous faire passer en pilote automatique.

Enfin, le sociologue appelle à la vigilance et dénote le manque de connaissance relative au sujet des algorithmes, pourtant clé dans les débats démocratiques à venir. Son ouvrage fait écho à celui d’Eric Sadin, La vie algorithmique, L’échappée, 2015, dans lequel le philosophe évoque avec méfiance le « savoir d’ordre panoptique » dont dispose Google, et le danger qui couve au sein de certains algorithmes créés par de grandes firmes en position dominante.

En bref, un manuel pratique et exhaustif qui apporte de nombreux éclaircissement à l’épineuse question des algorithmes. Quant à savoir à quoi ils rêvent, peut-être de moutons électriques, allez savoir.

Pour vous procurer cet ouvrage, rendez-vous sur le site leslibraires.fr, en cliquant sur le lien suivant : A quoi rêvent les algorithmes, nos vies à l’heure des Big Data, Paris, Seuil, 2015,

A quoi rêvent les algorithmes Dominique Cardon

4 comments

  1. Pingback: → +50 idées fortes du livre "A quoi rêvent les algorithmes" ? - Pepper SEO

  2. Joli compte-rendu. Mon seul regret : tu n’as pas repris sa métaphore finale sur « la route et le paysage », que je trouve bucolique et éclairante à la fois (que demander de plus à une métaphore ?). Merci en tout cas pour le boulot :)

    Reply
  3. Merci ! Oui, je l’ai vue reprise systématiquement donc j’ai préférer terminer sur autre chose. C’est vrai que c’est une métaphore bien choisie, les algorithmes ne prévoient ni le hasard ni les vaches dans les champs. Et ça, c’est dommage.

    Reply
  4. Pingback: L’algorithme roi — DAZIBAO - par 1060 en voor 1060 !

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Vous pouvez utiliser ces balises et attributs HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>