Dans un article publié au Transnational Insitute (un centre de recherche indépendant qui se concentre sur les questions de justice sociale, environnementale et économique à l’échelle mondiale), pour la revue Geopolitics of Capitalism, « Beyond Big Tech Geopolitics Moving towards local and people-centred artificial intelligence » (Vers une intelligence artificielle locale et centrée sur l’humain), le chercheur Kai-Hsin Hung (HEC Montréal) dresse les contours d’une IA pensée sur les principes des communs et des mouvements pour la justice numérique (digital justice movements – des initiatives collectives cherchant à promouvoir l’équité et l’inclusivité dans le domaine du numérique).
Après une première partie constatant le fractionnement des développements technologiques au niveau mondial, suivant une logique de blocs, il déduit des nombreuses initiatives allant dans le sens de la justice numérique cinq grands principes qui forment un projet normatif et politique à même de sortir du déterminisme géopolitique en cours.
Comme je l’ai fait pour le livre blanc « Reclaiming Digital Sovereignty » publié par Rikap, Durand et leurs collègues – qui rejoint cette idée de « non alignement numérique » – j’en propose ici une synthèse en français.
« Le techno-nationalisme pourrait mener à un Rideau de Fer de l’IA, divisant le monde en blocs géopolitiques dominés par les grandes puissances technologiques et sapant la souveraineté numérique de la majorité des pays. Une intelligence artificielle locale et centrée sur l’humain pourrait nous aider à dépasser cette logique géopolitique imposée par les Big Tech. »
Consolidation du « Rideau de fer de l’IA »
En Inde, non loin de Bengaluru, Janaki et Rajesh travaillent pour une entreprise de traitement de données. L’un sur des modèles de vision par ordinateur à destination des USA, l’autre pour une société chinoise qui utilise l’IA pour mieux cartographier les terres arables. De l’autre côté de la planète, un super ordinateur est mis en place au Danemark, un pays de 6 millions d’habitants. Un « pattern » se répète pour « contrôler, capter et consolider la valeur numérique », écrit Kai-Hsin Hung : il s’ancre dans des logiques de pouvoir postcoloniales. Dans la course à la puissance de calcul et à l’IA, les pays du monde tentent de retrouver leur souveraineté numérique sans toutefois y parvenir tant les chaînes de dépendance sont nombreuses. Kai-Hsin Hung revient sur les risques systémiques à long terme de cette course et propose de faire un pas de côté vers des intelligences artificielles défaites de l’emprise des « Big Tech » et surtout, fondées sur des solutions communautaires et inspirées du mouvement « Digital justice ».
Les modèles de langage (ChatGPT et consorts) imitent la manière avec laquelle nous agissons et pensons. De Siri à Alexa en passant par ChatGPT (200 millions d’utilisateurs / semaine), elles reposent sur quantité de données et des méthodes statistiques avancées. Ces objets sont devenus des vecteurs d’affirmation géopolitique : chacun les siens, alors qu’une poignée d’entre eux domine le marché, principalement depuis les États-Unis. Leurs valorisations sont énorme : « Alphabet (Google), Amazon, Apple, Meta (Facebook), Microsoft, NVIDIA, Tesla et d’autres représentent 25 000 milliards de dollars sur un total mondial de 31 000 milliards de dollars, soit 80 % de la valorisation du secteur technologique mondial. » Avec 1 400 milliards de dollars, soit 4,5 % du total, les chinois arrivent en deuxième position. Cette valorisation est cependant sous-évaluée, en raison des sanctions américaines qui leur sont imposées (CHIPS and Science Act). Depuis 2021, ce sont 9 400 sanctions qui ont été faites par les USA à la Chine, avec pour argument la concurrence faussée par les subventions publiques, l’espionnage et la sécurité nationale. En termes de nombre de brevets déposés dans le domaine de l’IA, la Chine continue pourtant à dominer, et sa réplique aux USA n’a pas tardé, avec notamment l’interdiction d’exportation de minerais vers les États-Unis : le « rideau de fer » de l’IA se consolide, avance le chercheur.
Depuis 2022 et le lancement de ChatGPT, de nombreux pays tentent de bâtir leurs propres modèles de langage souverains. Leur succès repose sur la captation massive de données sur internet, favorisant certaines perspectives culturelles et certaines langues, plus représentées en ligne. Étant donnée que 2,6 milliards de personnes ne sont pas connectées à internet, elles ne sont pas représentés dans les modèles de langage : « Ces divisions pourraient s’aggraver, alimentées par des politiques croissantes de confinement économique et de points de blocage en matière de sécurité ». Dit autrement, l’IA croît au sein d’écosystèmes distincts, et les restrictions à l’export n’ont pas empêché l’essor de modèles chinois performants, comme DeepSeek R1, équivalent fonctionnel de ChatGPT. L’Inde aussi, lance ses propres modèles.
Sur un autre plan, un pays comme l’Indonésie (quatrième pays le plus peuplé au monde avec plus de 280 millions d’habitants), a interdit les smartphones iPhone 16 d’Apple et Pixel de Google, arguant que ces sociétés n’ont pas respecté l’exigence de 40 % de composants d’origine locale. C’est regrettable pour l’auteur : à l’échelle mondiale, nous dupliquons des écosystèmes technologiques et bâtissons des industries d’intelligence artificielles fragmentées. Du point de vue de la recherche scientifique, et des applications, par exemple en santé ou dans le domaine de l’action climatique, cela n’a rien d’optimal.
Ce phénomène se décline dans le fractionnement des câbles intercontinentaux par lesquels transitent les données : l’initiative Digital Silk Road (DSR) chinoise (21 500 km reliant la France, le Pakistan et Singapour) s’oppose au Partenariat du G7 pour l’infrastructure et l’investissement mondiaux (PGII) – (17 000 km pour relier Singapour à la France via l’Égypte). Si les coopérations scientifiques existent évidemment entre les USA et la Chine (le Microsoft Research Asia (MSRA) existe depuis 1998), ces liens se détériorent. Y compris dans milieu astronautique d’ailleurs : les échantillons ramenés par la Chine dans le cadre de la mission d’exploration lunaire Chang’e 6 n’ont pas pu être analysés par la NASA, en raison de l’amendement Wolf (2011).
Pour une IA locale et centrée sur l’humain issue des communautés de « digital justice »
« Les communautés mondiales de justice numérique offrent des visions alternatives au statu quo des Big Tech en promouvant la coopération sur les données et en investissant dans la construction d’infrastructures numériques publiques. »
Ces communautés s’appuient sur des principes éthiques et d’équité, dans le but d’assurer que le développement technologique leur donne du pouvoir et ne leur en enlève pas. L’idée centrale est de bâtir à revers des « Big Tech », des systèmes locaux ouverts qui tiennent compte des conditions de travail de Janaki et Rajesh, et des millions d’autres travailleurs de la donnée. Plusieurs initiatives vont dans le sens d’une économie numérique plus juste. Parmi celles citées par l’auteur : IT for Change, l’Association for Progressive Communication, ou encore le livre du Tierra Común Network sur la résistance au data-colonialisme.
Mais surtout, cinq principes guident ce non alignement et évacuent le déterminisme du « rideau de fer », rappelle Kai-Hsin Hung. Il me semble important de les copier ici tant ils sont absents de tous débats publics ou médiatiques dans le domaine du numérique et de l’intelligence artificielle :
1 – Promouvoir des infrastructures numériques publiques (PDI) ouvertes et décentralisées
Il est crucial d’investir dans des infrastructures numériques publiques, décentralisées et open-source, pensées comme des « bien communs numériques » (c’est-à-dire ressources gérées collectivement, souvent par des communautés ou des organisations publiques) pour lutter contre les Big Tech, en veillant à ce qu’elles soient gérées de manière responsable, respectent les droits humains et offrent un accès équitable aux utilisateurs.
« Des initiatives comme guifi.net en Espagne et Rhizomatica au Mexique, par exemple, permettent aux communautés locales de construire et de gérer leur propre infrastructure Internet, garantissant ainsi la connectivité dans les régions mal desservies. MTLWifi à Montréal offre un accès Wi-Fi gratuit dans 275 espaces publics tels que des bibliothèques et des parcs. Il existe de nombreux autres exemples de Wi-Fi municipal à travers l’Europe. »
2 – Démanteler les monopoles
Le démantèlement des monopoles est un combat qu’il ne faut pas abandonner. Il devrait être couplé à de fortes exigences en matière d’interopérabilité, un principe qui permet de faire transiter facilement ses données d’une plateforme à l’autre pour ne pas se retrouver verrouillé dans l’une d’entre elles. Plus encore quand ces monopoles, comme Amazon, combinent plusieurs activités (fournisseur de cloud / e-commerce) qui leur permet de fausser le jeu de la concurrence. Les infrastructures de l’IA devraient être pensées sous forme d’investissements publics, pour faciliter leur gestion en dehors de la pure sphère marchande.
3 – Construire un mouvement numérique des pays non-alignés
Ce mouvement s’inspire du Mouvement des non-alignés, qui rassemble aujourd’hui 120 pays, dont beaucoup ont historiquement cherché à se libérer de leur dépendance aux grandes puissances. Son objectif est de promouvoir l’équité numérique et de renforcer la résilience face à la fragmentation mondiale. L’idée est de permettre aux nations et aux régions de développer des politiques, des technologies et des collaborations qui évitent une trop forte alignement avec les grands écosystèmes dominants de l’IA, comme ceux des États-Unis et de la Chine.
« Par exemple, la transformation numérique du Brésil se concentre sur l’utilisation de la technologie pour promouvoir l’inclusion sociale, améliorer les services publics et construire une économie numérique équitable, y compris le développement de logiciels publics »
4 – Prioriser l’innovation centrée sur l’humain et inclusives à l’échelle locale
Les politiques doivent prioriser l’innovation technologique et en IA centrée sur l’humain, en mettant l’accent sur l’équité, de meilleures conditions de travail, et la durabilité environnementale dans les chaînes de valeur de l’IA, mondiales que locales.
« Par exemple, MobileNet est un modèle d’IA frugal. Ses réseaux neuronaux légers sont conçus pour fonctionner de manière efficace sur des appareils mobiles. En nécessitant peu de puissance de calcul, de données et d’énergie, MobileNet offre des solutions efficaces et plus abordables sans compromettre les performances »
5 – Renforcer la plaidoyer de la société civile
Les organisations de la société civile (OSC) et les chercheurs doivent être soutenus pour plaider en faveur de lois sur la protection des données plus strictes et de pratiques et gouvernances de l’IA (notons que ce n’est pas vraiment le chemin pris par l’Europe qui, sous la pression de JD Vance (notamment) abandonne la Directive sur la responsabilité en matière d’IA (AI Liability Directive).
Et Kai-Hsin Hung de conclure : « Les communautés pour la justice numérique et leurs défenseurs des droits humains jouent un rôle essentiel, tant dans le « Monde Majoritaire » que dans le « Monde Minoritaire ». Leurs efforts de mobilisation et de construction de coalitions à travers tous les secteurs et partenaires peuvent stimuler la prise de conscience et les ressources nécessaires pour le débat public et l’investissement dans les infrastructures numériques publiques nécessaires au développement et au déploiement d’une IA plus locale et centrée sur l’humain. »
Post scriptum :
e note aussi que ces propositions qui commencent à pulluler rejoignent d’assez près la ligne empruntée par l’association Le Mouton Numérique, notamment dans sa dernière tribune publiée à l’occasion du Sommet pour l’action sur l’IA, qui s’est tenu à Paris en février 2025. J’en livre un court extrait :
« La technicisation et la « géopolitisation » à outrance du débat sur l’IA ne doit pas nous rendre aveugles quant au projet politique derrière ces systèmes : la France n’a pas attendu ChatGPT ou n’importe quelle autre IA issue des « Big Tech » pour se lancer dans une numérisation liberticide et discriminatoire. Car avant d’être utilisée dans une multitude de contextes discutables (…) nous nous rallions à [l’idée] d’une souveraineté numérique “non alignée” qui ne verse pas dans “un illusoire nationalisme technologique” (…) et bâtir des infrastructures numériques publiques, au service de la démocratie. »
Illustration by Shehzil Malik, reprise à l’article original