Sortir du techno-pessimisme

Les critiques des technologies seraient-elles excessivement occidentalo-centrées ? Qu’il s’agisse de surveillance, d’usage des réseaux sociaux, jusqu’au rapport aux sites pornographiques… nombres d’analyses émanant du Nord adoptent des perspectives qui excluent le plus souvent les pays du sud. C’est tout le propos du dernier ouvrage de l’anthropologue et professeure à la Utrecht University, Payal Arora, From pessimism to promise, Lessons from the global south on designing inclusive tech (MIT Press, 2024). Dans la lignée du livre précédent (The Next billion users, dont nous avions également rendu compte), Arora offre une enquête fouillée des pratiques des utilisateurs du numérique dans le sud global, et plaide pour une meilleure prise en compte de leurs existences et de leurs besoins, mais aussi de l’élan d’optimisme dont ils peuvent témoigner dans leur relation à la technologie.

Numérique : décadrer le débat

Les premières pages de From pessimism to promise sont, pour dire le moins, déconcertantes, pour qui suit de près les critiques faites à l’industrie numérique dans la dernière décennie. Sans conteste, l’anthropologue fait un pas de côté, en pointant l’unanimité des récits et des analyses qui, de Safiya Noble (Algorithm of oppression, 2018) à la lanceuse d’alerte Frances Haugen, évacuent toute possibilité d’existence de systèmes non oppressifs. Cette grille de lecture ne résiste pas à tous les terrains, signale Arora, qui raconte comment une jeune chercheuse enquêtant sur l’oppression algorithmique au Vietnam est venue la voir bien embêtée : les enquêtés qu’elle rencontrait ne faisait état d’aucun problème, ils étaient plutôt d’enthousiastes utilisateurs d’Instagram et de TikTok. L’anthropologue n’y va pas par quatre chemins : « Le néo-marxisme est bien vivant et dynamique dans le monde académique occidental. » (p. 10), et le dédain généralisé vis-à-vis de tout ce qui est marchand impose aux pays les plus pauvres de vivre en étant exclus des modèles d’affaires de nombreuses entreprises et par conséquent, contraints d’en passer par d’autres circuits, souvent plus chers, pour accéder à différents produits et services (« poverty tax »). 

L’Occident, affirme Arora, est en proie à un pessimisme paralysant, une morosité qui inhibe l’action. L’idée n’est pas de justifier le capitalisme de surveillance, ni même d’évacuer les critiques précitées, mais bien de les passer au crible des usages observés dans les pays pauvres, où on ne peut pas se payer le luxe du désespoir. Aussi, si n’importe qui peut désormais acheter un pin’s « Fuck the algorithm » sur Amazon, Arora précise : « Comme dans tout mariage, la relation qu’entretient la société avec la technologie demande du travail » (p. 3). L’idée sous-jacente au livre est au fond très simple : inclure au débat sur les technologies « la majorité du monde ». Ceux qui, du Nigéria au Pérou, en passant par l’Inde, utilisent encore les plateformes comme des moyens d’expression et d’appartenance. Si Meta (Facebook, Instagram) a par exemple perdu du terrain parmi les jeunes générations en Occident, c’est beaucoup moins le cas dans certains de ces pays qui peu à peu, se connectent à internet : « l’algorithme, malgré les risques, est encore leur ami » (p. 7). 

Par delà le « Good » et le « Evil »

Dès lors qu’on parle de responsabilité ou d’impact de la « tech », il arrive que le débat se structure selon un dilemme moral entre « bien » et « mal » qu’Arora récuse. Les projets dits « For good » peinent à se libérer du carcan occidental-centré, voire des tendances postcoloniales qui préjugent à l’installation de systèmes dans des pays pauvres « pour leur bien », ou à tout le moins en des termes altruistes. Ces bonnes intentions ne résistent pas à l’épreuve des faits. Par exemple, les systèmes d’intelligence artificielle demeurent largement tributaires de données d’entraînement occidentales. Une étude menée par des chercheurs du META AI Lab a ainsi montré que des objets communs se trouvant dans une maison, comme des chaussures, du savon ou encore un canapé, sont moins bien reconnus (autour de 10-15 %) dans des pays comme le Burkina Faso ou la Somalie, par des services comme ceux de Microsoft, Google cloud vision, Amazon Rekognition ou IBM Watson. Ce phénomène est parfois désigné par l’acronyme WEIRD, pour « Western, educated, industrialized, Rich and Democratic ». 

Payal Arora illustre son propos d’un autre exemple, une solution produite par la société informatique Intel dans le cadre de son « AI for Social Good initiative », visant à anticiper les mouvements des braconniers grâce à des caméras high-tech. Le braconnage est en effet un vrai problème et contribue à la mise en danger d’espèces protégées. C’est aussi un marché évalué entre 7 et 23 milliards de dollars par an par les États-Unis. En réalité, ce genre de produits d’IA pullulent. Ils s’incarnent dans des technologies très diversifiées : drones, caméras infrarouge, images satellites, enregistrements audio, etc. Arora interroge ses étudiants : comment empêcher les braconniers de tuer des animaux grâce à ces nouvelles technologies ? Certains d’entre eux lui répondent qu’il faudrait placer les caméras sur des drones, et doter ces derniers d’armes capables de leur tirer dessus ! 

Arora leur demande ensuite d’imaginer une situation similaire où un homme mettrait en danger un animal à Amsterdam. Faut-il, lui aussi, lui tirer dessus ? Réponse unanime des étudiants : non, la loi l’interdit. Ce qui différencie ces deux contextes : le fait que « l’empathie n’est pas une qualité intrinsèque, c’est un processus. » (p. 31). Par-delà l’anecdote, Arora relève que de tels outils sont souvent dissociés des réalités sociales qui conduisent des personnes à devenir braconniers. Beaucoup s’y lancent sous la pression d’un groupe, pour subvenir à leurs besoins, améliorer leur avenir ou encore inspirer le respect. La pauvreté et le manque de perspectives restent, bien sûr, une motivation première.

Les outils d’IA sont par ailleurs de peu d’utilité sans le concours des équipes au sol – les « rangers » –, à condition que ces équipes soient assez nombreuses, suffisamment payées et dotés d’outils de connectivité, ce qui est loin d’être toujours le cas. Braconniers et rangers appartiennent souvent à des milieux semblables, voire aux mêmes familles. Si les mouvements de ces derniers sont difficiles à anticiper, c’est aussi en raison des fuites d’information et de la corruption qui touche les premiers. Une nouvelle technologie est-elle réellement nécessaire, demande Arora, quand de nombreux acteurs au sol réclament plus de moyens, de meilleures barrières électriques ou un hélicoptère en vol permanent : « Pourquoi parier sur les nouvelles technologies quand les anciennes sont suffisamment puissantes ? » (p. 36). 

Plus que de grandes visions sur le bien et le mal, inopérantes pour l’anthropologue, Arora défend un design ancré dans les relations sociales. Le message commence d’ailleurs à passer dans certaines grandes entreprises, où l’on demande aux cadres de ne plus prétendre qu’il font du monde « a better place » (p. 37). 

Désir et « algorithmes d’aspiration »

Une bonne partie de l’ouvrage d’Arora présente un catalogue d’outils, d’applications et de personnalités dont la plupart des occidentaux n’ont pas connaissance. L’idée est non seulement de pointer les préjugés ciblant le sud, encore perçu comme manquant de créativité, mais aussi de montrer que dans certains domaines, ces solutions prennent à bras le corps des débats que les occidentaux peinent à résoudre. C’est le cas dans le domaine musical. Alors que le monde occidental a les yeux rivés sur Spotify, l’application de streaming Anghami, leader au Moyen-Orient et en Afrique du Nord, est la première du genre à entrer au NASDAQ. L’appli fonctionne pour les artistes du monde arabe, propose toute une variété d’abonnements et de modes d’inscriptions, tout en se rendant compatible avec d’anciens téléphones : « Anghami paie plus les artistes et moins les labels. » (p. 43). Alors que la Silicon Valley disserte sur la blockchain et un nébuleux « web 3.0 », l’Inde met en place un système de paiement unifié instantané en P2P (Unified Payment Interface). 

Cette émulation suscite l’apparition de nombreux créateurs, petits et gros, rassemblant des millions de followers, qui bien qu’opérant dans des niches (par exemple, le « Lip sync » – synchronisation labiale en français) font vivre tout un capital culturel déconsidéré au nord. Nombre d’entre eux comptent sur des logiciels de conception graphique comme « Canva » pour leurs réalisations. Si l’outil est pour certains designers occidentaux, déjà une insulte aux designers professionnels, les créateurs indiens par exemple, ne jurent que par lui : « Ils ne pensent pas que le design est facile, ils s’attendent à ce que le design soit facile » (p. 61). Quant aux questions relatives à la surveillance, elles sont à inscrire dans ce besoin de mise en visibilité des contenus. Dans un pays comme le Brésil par exemple, où 40 % des gens suivent des influenceurs : « Bien que leur vie privée soit importante, leur visibilité l’est encore plus. » (p. 61). 

Dans la même veine, Payal Arora développe tout un chapitre original sur l’usage de la pronographie en ligne dans les pays les plus pauvres. Le sexe est chassé quasiment partout, de l’Iran ou la promotion de contenus « vulgaires » (danse, mode) peut conduire en prison, à la Chine qui poursuit les contenus homosexuels, en passant par l’Inde ou un baiser en public est déjà tabou. 82 % des pays asiatiques restreignent le porno en ligne, et 27 parmi eux l’interdisent complètement. On retrouve la même situation dans le Golfe qui compte pourtant 6 des 10 plus gros pays consommateurs. Les effets de bord ne sont pas négligeables. Au-delà des contenus à caractère sexuel, il est difficile dans de nombreux pays de parler, par exemple, de menstruations et de sexualité en général (sans qu’il ne s’agisse de pronographie). Aussi l’apprentissage « informel » ne fait pas figure de nouveauté dans ce domaine : à l’instar du « Do-it-yourself » sur Youtube, de nombreux contenus pornographiques sont visionnés dans une optique éducative. Le trend le plus populaire sur Pornhub en 2019 est « How to » : « How to touch a woman », « How to use a condom », etc. En 2021, le site a vu ces recherches bondir de 244 % et a même créé un « Real sex education portal » pour répondre à la demande. S’il est encore risqué de monter une application permettant à des personnes de se renseigner sur ces sujets, le boom dans l’usage signale l’importance capitale du sexe dans la vie humaine, comme l’a souvent et très simplement rappelé Payal Arora. Le tabou est d’autant plus dommageable que certaines applications restent autorisées quand bien même leur caractère toxique et prédateur est avéré, comme par exemple « L’amour », toujours disponible sur Google Play, et dont l’objet consiste pour faire simple, à escroquer de jeunes indiens en leur faisant miroiter des rencontres avec des femmes. La solitude, rappelle Arora, est un défi majeur qui devra être adressé. Elle conduit notamment à l’usage massif de chatbots en tous genres, dont il faudrait analyser les ressorts sans tomber dans le jugement moral.

« Surveillance of care »

Arora l’a distillé tout au long du livre, les questions qui inquiètent une partie de l’Occident, comme la surveillance, sont diversement appropriées dans le reste du monde. L’autrice défend certaines formes de surveillance contre d’autres. Celle par exemple, des réfugiés qui peuvent « tracker » les leurs et leurs familles et s’enquérir de leur mise en sécurité. Celles d’entrepreneuses qui peuvent noter leurs clients pour s’en protéger. Celles de jeunes mexicaines qui, entre Facebook et Whatsapp, se géolocalisent en temps réel avec un seul objectif : ne pas se faire tuer. De surcroît, si la surveillance inquiète à juste titre, elle ne doit pas occulter le fait qu’une grande partie de l’humanité vit aujourd’hui hors réseau. 90 % de l’urbanisation à venir est informelle, rappelle Arora : « Plus d’un milliard de personnes sans identité officielle souhaitent adhérer, et non se soustraire, à ce système de suivi étatique. L’identification numérique leur permettrait d’ouvrir des comptes bancaires, d’obtenir des financements, de postuler à des emplois, d’exercer leurs droits légaux, de formuler des demandes officielles et de prévenir les détentions ou expulsions injustifiées. » (p. 86).  Pour beaucoup, la peur d’être anonyme et perdu est plus grande que celle d’être surveillé.

Nous n’épuiserons pas ici toutes les thématiques soulevées par Arora. Une dernière partie du livre ouvre ainsi la boîte noire des dégâts environnementaux et autres chaînes de dépendance nord-sud propres à l’industrie numérique. Par delà les chiffres et les faits, déjà connus, l’augmentation inquiétante des ressources et notamment de l’eau, retenons que les systèmes d’IA en eux-mêmes tendent à reproduire un certain rapport à la nature. Ainsi « Les termes liés à l’alimentation remplissent des bases de données où les poissons sont répertoriés comme des trophées de pêcheurs plutôt que dans leur habitat naturel. » et « Les vaches, les porcs et les poulets sont présentés dans des environnements en plein air, alors que la majorité d’entre eux se trouvent dans des élevages industriels. » (p. 113). Tout débat sur l’IA interroge non seulement ses modes de production mais aussi les représentations qui en surgissent. 

***

Le livre – les livres même – de Payal Arora sont stimulants et décalés. Trop peu lus en France, ils offrent pourtant une perspective trop rare, dérangeante peut-être, tant l’autrice prend le risque de glisser de cette ligne de crête qui sépare une critique des techniques aussi universalisante que tronquée d’un relativisme des usages un brin périlleux. Il me semble que nous avons les mêmes débats ici sur les « écrans », une catégorie bien vague à l’intérieur de laquelle toute étude des « usages » est par définition diluée. Il y a plusieurs écrans, moments d’écrans, utilisateurs d’écrans auxquels il faut raccrocher toute une variété de contextes pour prétendre analyser sérieusement le phénomène… Quitte à parfois se noyer dans l’analyse et abandonner aux usages une critique bien nécessaire de ce qu’est un smartphone, économiquement, socialement, écologiquement, et ce quand bien même adultes et adolescents en jouissent quotidiennement pour tout un tas d’activités émancipatrices.

Un ouvrage tel que From pessimism to promise laisse la possibilité d’un procès en technosolutionnisme, mais Payal Arora s’en protège bien. L’étendue et la finesse des situations qu’elle expose rend difficile toute approche re-moralisante : Arora parle du terrain, de choix et d’usages qui « tombent sous le sens » dans des pays où les problématiques sont la plupart du temps éloignées de celles des grands pays occidentaux (qui n’ont pas de conseils à donner, serait-on tenté d’ajouter). 

On pourra certes, continuer à demander dans quelle mesure ce « numérique » fonctionnera mieux au Sud qu’au Nord, a fortiori dans des pays où les gardes fous institutionnels sont bien plus faibles. Le poids de Facebook dans le nettoyage ethnique des Rohingya au Myanmar l’illustre plus que tout autre chose : les géants du numérique ne sont nulle part de paisibles logiciels émancipateurs. Aussi la surveillance numérique, quand bien même elle serait acceptée ou jugée acceptable au regard des bénéfices de certains outils, reste un compromis piégé. Enfin, les velléités d’émancipation par lesdits outils numériques ne s’exauceront pas sans reconsidérer leurs chaînes de production, qui commencent matériellement dans les pays du sud : à ce titre, un peu de « néo-marxisme » continue d’être utile. L’un dans l’autre, on repartira avec une conclusion unanime du livre d’Arora : « Le dualisme du bien et du mal convient aux contes pour enfants, mais pas à la réalité » (p. 122).

S’abonner
Notifier de
guest
0 Commentaires
Inline Feedbacks
View all comments