Les États-Unis et l’Europe sont souvent mis face à face dans des schémas simplificateurs : innovation contre régulation, libéralisme contre encadrement strict. Ces catégories rigides ne tiennent pas face à la complexité des rapports de force réels, notamment dans le champ de la science et de l’intelligence artificielle. Entre pressions industrielles, stratégies politiques et luttes internes, la régulation du numérique et de l’IA aux États-Unis comme en Europe révèle un paysage plus conflictuel et mouvant qu’il ne paraît. Retour sur quelques événements récents ayant trait à la fronde de l’administration Trump contre la science, et aux perceptions communes du poids de la régulation des deux côtés de l’Atlantique.
Sans science et sans conscience
Commençons par une actualité sans lien aucun avec l’intelligence artificielle. Le 19 mars dernier, un scientifique français issu du CNRS est refoulé du territoire étasunien pour avoir exprimé « une opinion personnelle sur la politique menée par l’administration Trump », titre le journal Le Monde. Bien que démentie par les autorités américaines, cette version des faits s’inscrit dans une séquence choc où Donald Trump et JD Vance s’en prennent sans complexe à la science et aux universités. En hexagone, le ministre de l’Enseignement supérieur et de la Recherche Philippe Baptiste médiatise l’affaire, s’étonnant de l’argumentaire donné outre Atlantique – soit disant, une violation d’un accord de confidentialité – qui aurait selon le ministre dû conduire à des poursuites immédiates. La communauté scientifique française n’a pas attendu cet incident diplomatique pour réagir à la poussée obscurantiste d’un gouvernement ouvertement anti-science et climatosceptique, et s’est empressée de lancer un mouvement de soutien aux scientifiques étasuniens, « Standup for science », accompagné d’une première manifestation dès le 7 mars.
Il est tentant de réduire la séquence à un conflit géopolitique d’inspiration anti-atlantiste basique, opposant détracteurs et promoteurs de la science, les uns (méchants) aux États-Unis, les autres (gentils) en France. Ce serait là oublier deux faits majeurs. D’abord, en France, la recherche est sous financée, plus encore depuis la Loi de finances 2025 qui impose des réductions brutales à l’université (- 1,5 milliard d’euros). Les sciences humaines et sociales sont prioritairement visées par ces baisses, et attaquées par les plus hautes sphères de l’État avec des arguments trumpistes depuis 2022 au moins. Ensuite, le mouvement anti-science est bien vivant en France, et ne se limite pas aux seules personnes électrosensibles, (constamment stigmatisées – ce qui est bien pratique pour réduire le sujet à la question des « ondes », et pourquoi pas, à une forme de complotisme). Un récent papier du mathématicien David Chavalarias, « L’anti-science version Trump arrive en France » dévoile une toute autre version de ce mouvement anti-science, largement inspiré des idées déployées par les sphères réactionnaires américaines. Le chercheur a monté en novembre 2024 un projet de recherche, « OpenPortability », dans le but d’étudier l’évolution des pratiques sur les réseaux sociaux suite à la victoire de Donald Trump. OpenPortability s’est notamment fait connaître lors de la campagne lancée par escape-x.org, et la plateforme « HelloQuitteX » facilitant la portabilité des données depuis le réseau social « X » vers les concurrents Mastodon ou BlueSky. L’idée qu’un chercheur soit associé à un mouvement prônant la portabilité (et donc les libre circulation) des données, droit inscrit dans le droit européen (article 20 du RGPD) – dans le but de faciliter le fait de quitter le réseau social d’Elon Musk a enflammé une partie de la droite et de l’extrême droite qui se sont lancé dans une attaque en règle contre l’Institut des Systèmes Complexes de Paris (CNRS), en suivant « un modus operandi qui a déjà fait ses preuves aux État-Unis contre certains chercheurs et institutions scientifiques ». Je ne peux que vous encourager à lire l’article de Chavalarias, gardons pour le moment simplement en mémoire que la fronde contre la science et notamment, la recherche publique, transcende les oppositions nationales paresseuses entre France et États-Unis.
Troubles dans le champ de la régulation de l’IA aux USA
Venons-en maintenant à notre sujet, l’intelligence artificielle. Et avant cela un dernier détour par une formule qui me semble (mal) résumer la géopolitique mondiale en matière d’industrie, dont l’IA fait partie. Cette formule, vous l’avez aussi sans doute lue ou entendue : « Les USA innovent, la Chine réplique, l’Europe régule ». Elle est attribuée à Emma Marcegaglia, ancienne présidente du Medef italien, « Cofindustria ». Rien ne va dans cette affirmation. Outre le fait qu’elle rebat un vieux cliché xénophobe (les chinois seraient incapables d’inventer quoi que ce soit eux-mêmes), elle peine à saisir la subtilité du tissu de régulations étasuniennes et le fait que ce pays est précisément le rouleau compresseur normatif qui s’impose au reste du monde dans de nombreux domaines. Depuis l’arrivée au pouvoir de Donald Trump, le domaine de l’IA n’est pas épargné. C’est ce qu’expliquent les chercheurs Claudio Novelli, Akriti Gaur et Luciano Floridi dans un papier publié sur SSRN, « Two Futures of AI Regulation under the Trump Administration » où ils reviennent sur le moment bien particulier que vit le pays en matière de régulation de l’IA.
En effet, quelques heures après son entrée en fonction, Trump a révoqué un Décret exécutif de son prédécesseur Joe Biden (“Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence”) en le remplaçant par un nouveau décret, “Removing barriers to americain leadership in Artificiel intelligence” (« Éliminer les obstacles à la domination américaine en intelligence artificielle. »). Ce remplacement acte de l’éviction du paysage normatif de tout intérêt pour les libertés civiles dans le développement de l’IA. Biden prévoyait aussi des outils pour détecter les contenus créés par l’IA, avec un label obligatoire « généré par l’IA » sur ceux-ci. Il s’agit maintenant pour la nouvelle administration de se débarrasser d’une « vision gauchiste de l’IA qui freine son développement » selon Trump lui-même. Décision corroborée par le discours du vice Président Vance lors du Sommet de l’IA, qui fustigeait de son côté l’excès de régulations européennes pesant sur les sociétés américaines. Le décret de 2025, rappellent les auteurs, met l’accent sur le leadership étasunien, là où celui de Biden accordait plus d’importance à la collaboration internationale.
L’affaire n’est toutefois pas si facilement pliée, détaillent les chercheurs. La régulation de l’IA n’est pas l’apanage de l’État fédéral, et c’est justement la question qui se pose désormais. En l’état, deux scénarios se présentent. Dans le premier, la régulation désormais amoindrie au niveau fédéral, pourrait simplement émaner des États américains eux-mêmes, ce qui est d’ailleurs déjà largement le cas. Dans le second, l’État fédéral pourrait préempter les lois nationales, non sans difficultés et au prix de conflits juridiques importants.
Si l’on s’en tient au premier cas, cela reviendrait à assumer une sorte de statu quo. En 2024, pas loin de 700 lois en lien avec l’IA ont été introduites aux États-Unis, traitant de thématiques aussi variées que la régulation algorithmique et les biais, ou encore les contenus générés par des IA. Au Colorado par exemple, le Colorado Privacy Act (CPA) permet déjà de réguler le transfert de données personnelles. Il s’inspire du California Privacy Rights Act (CPRA), lui-même inspiré du RGPD européen. Dans le Connecticut, une loi faisant référence aux « risques » de l’IA (comme l’IA Act en Europe) a été proposée mais n’a pas passé l’épreuve du feu auprès des industriels. Dans le Tennessee, le ELVIS Act protège les voix et images des artistes. La liste des Etats en passe de réguler les systèmes d’IA d’une manière ou d’une autre est longue et aborde pêle-mêle ses usages discriminatoires, la question de la propriété intellectuelle, les deepfakes, etc. D’un État à l’autre, les appropriations des questions de régulations varient, donnant ici plus d’importance aux droits des consommateurs, favorisant là l’innovation. Récemment encore, en Californie, plusieurs projets de lois ont été déposés pour lutter contre la discrimination tarifaire au moyen d’algorithmes, et protéger les consommateurs. Ce paysage réglementaire éclaté diffère du modèle européen, généralement plus strict. Il n’est pas non plus sans lien avec « l’effet Bruxelles » (soit l’influence de l’Union européenne sur les normes et les régulations mondiales), même si les choix des États américains en matière de régulation répondent aussi à des enjeux sociaux internes. En tout état de cause, cet éclatement légal pourrait mener à des conflits juridiques en tous genres entre les États et l’État fédéral. De quoi déconstruire l’idée selon laquelle les États-Unis ne réguleraient rien et s’opposeraient en cela à la vieille Europe boursouflée par son administration. Notons toutefois que le démantèlement en cours de l’administration par le DOGE annonce des heures sombres pour les régulateurs américains.
Dans le second scénario exposé par les chercheurs, l’État fédéral pourrait préempter les lois étatiques en vertu de la clause de suprématie de la Constitution (Article VI, Clause 2). Ce fut le cas avec le “Internet Tax freedom Act” (1998) qui empêchait les États de prélever des taxes sur le e-commerce. Cette préemption est complexe et peut être plus ou moins explicite (l’État fédéral peut passer des lois qui contredisent celles des États, ou charger par exemple le National Institute of Standards and Technology (NIST) d’évaluer des standards à leur place). Il s’agit dans tous les cas de créer un conflit, voire un rapport de force, entre les lois nationales et fédérales. Les industriels ne sont jamais loin quand vient l’heure d’opter pour l’une ou l’autre de ces options. Le chief global affairs officer d’Open AI pousse déjà pour la préemption dans un mémo, arguant de la criticité de la concurrence chinoise et donc du besoin de déréguler au maximum. Historiquement, la préemption est souvent intervenue pour les technologies dites à « usage général » (comme l’électricité par exemple), mais l’IA, de part la multiplicité des applications qui peuvent s’en décliner, retombe vite dans le carcan des États qui gardent une certaine autonomie dans ce qui relève de l’éducation ou de la santé. S’il est à ce stade prématuré de déterminer lequel de ces deux scénarios prévaudra, nous pouvons en tirer comme conclusion que le champ de la régulation aux États-Unis est tout sauf homogène. Il est conflictuel et mouvant.
Vieux Continent, vieilles combines
La régulation européenne récente en matière d’intelligence artificielle rencontre ces mêmes conflits internes, à son échelle et suivant un fonctionnement propre aux institutions locales. En 2023, l’IA Act (le règlement sur l’intelligence artificielle européen, par niveaux de risques) a fait l’objet d’un fort lobbying émanant des industriels dont 150, (parmi lesquels Airbus, Blablacar, Capgemini, ou Ubisoft, mais aussi quelques intellectuels, voyez la liste derrière le lien suivant) se sont fendu d’une lettre ouverte incitant à lever les barrières sur les IA génératives, prétextant que « Les États qui possèdent les modèles de langage les plus puissants bénéficieront d’un avantage concurrentiel décisif. Leur influence sera encore bien plus grande : en remplaçant, par exemple, les moteurs de recherche et en s’imposant comme des assistants dans notre vie personnelle et professionnelle quotidienne, ils deviendront également des outils puissants façonnant non seulement notre économie, mais aussi notre culture. »
Je ne m’étendrai pas plus avant ici sur la qualité de l’argumentaire qui peut faire l’objet de longues discussions philosophiques portant sur son caractère hautement déterministe. Un an plus tard, l’observatoire des multinationales montrait que ces efforts avaient permis d’atténuer « considérablement » la portée de la nouvelle loi sur l’IA. Les résultats de l’enquête sont édifiants, plusieurs passages en témoignent : « ce ne sont pas OpenAI ni Microsoft, Meta (Facebook) ou Google qui ont été au premier plan de cette bataille – du moins sur la dernière ligne droite. Ce sont les start-up européennes du secteur, à commencer par l’allemande Aleph Alpha et la française Mistral AI » (…) « dans la version finale de la loi européenne, leurs modèles à usage général ne sont plus classifiés comme à risque, de sorte que leurs produits – et quasiment tous les autres à l’exception de ChatGPT – ne plus sont soumis qu’à des obligations minimales de transparence » (…) « Sur l’année 2023, le projet de loi a donné lieu à pas moins de 122 de réunions de lobbying à la Commission européenne, soit une tous les deux jours ouvrables, dont 78% avec les industriels ».
Notons également que depuis 2024, la Commission européenne a lancé une ébauche de « Code de bonnes pratiques » pour encadrer l’IA à usage général, en complément de l’IA Act. Le tout conçu par des experts indépendants, désignés par le Bureau européen de l’IA. Ce code s’inscrit dans la continuité de la volonté de l’Union européenne de bâtir un espace numérique sûr et éthique. En synthèse : renforcer la transparence des modèles, respecter les droits d’auteur, se rendre capable d’identifier les risques. Reporters sans frontières (RSF) a récemment dénoncé « l’absence de garanties sur le droit à l’information et le poids exorbitant de l’industrie » dans le processus de négociation de ce code, et simplement claqué la porte, arguant notamment que « le droit à l’information n’est pas mentionné dans le texte. Les risques associés au développement non régulé de l’IA pour l’information fiable, comme les deepfakes, la prolifération de faux sites d’information automatisés ou encore la désinformation infiltrée dans les chatbots, sont également absents. » Cet épisode intervient au moment même où la Commission européenne semble se décider à détricoter (enfin, à « simplifier ») le Règlement général sur la protection des données personnelles (RGPD) entré en vigueur en 2018. Là encore, c’est sous la pression des lobby du secteur qu’un tel virage serait prévu, avec un prétexte bien connu : réguler freinerait l’innovation, une scénarisation usée jusqu’à la corde dont on attend toujours les caractérisations concrètes.
On retiendra de ces renoncements que le paysage européen en matière de régulation n’est pas réductible à une opposition frontale avec les États-Unis. Plusieurs des signataires de la Lettre ouverte restent d’une manière ou d’une autre attachés à des intérêts étrangers (Yann Le Cun est salarié de Meta, Mistral est soutenue par Microsoft). La poursuite des négociations sur les régulations à mettre en place sont, quant à elles, un terrain d’affrontement permanent entre industriels et organisations issus de la société civile.
***
Après tout, la nécessité pour l’Europe de se doter d’un modèle de langage « fait maison » peut s’entendre, si toutefois cette indépendance est forgée dans la transparence quant à l’établissement des règles juridiques qui prévalent à son développement. Dans le contexte actuel, on pourrait tout aussi bien défendre qu’un lobbying « proxy » en Europe, fut-il intervenu avant l’élection de Donald Trump, contredit l’idée d’une souveraineté pleinement européenne. D’autres acteurs prolifiques en matière d’IA semblent moins entendus que les industriels, comme le Conseil économique, social et environnemental (CESE) qui a joué sa partition en février 2025 avec son rapport « Pour une intelligence artificielle au service de l’intérêt général », préconisant notamment de « renforcer, dans la réglementation européenne, les impératifs de transparence des algorithmes et des jeux de données d’entraînement » (préconisation 1), d’agir avec « prudence avant d’adopter un système d’IA » (préconisation 13) ou encore de « planifier le développement de l’IA dans le respect des limites planétaires » (préconisation 6). C’est peu dire que nous en sommes loin.
La politisation de l’agenda numérique en matière de régulation se fait par l’extérieur (d’abord par les USA, qui ont mis en balance les lois européennes avec le soutien à l’Ukraine), mais aussi par l’intérieur. C’est ce qu’expliquait en substance Anu H. Bradford, professeure de droit et experte en droit commercial international, dans un entretien au Grand Continent: il y a un défi externe, et un autre interne, le second est plus paradoxal : « c’est la tétanie de l’Europe elle-même face à son propre agenda réglementaire ». En matière de régulation, l’Europe ne devrait pas avoir peur de son ombre. J’ajouterais que pour être crédible, elle devrait également cesser d’être paralysée par ses citoyens et ouvrir la régulation aux voix de la société civile, au-delà des intérêts industriels.
Image en tête d’article Linus Zoll & Google DeepMind / https://betterimagesofai.org / https://creativecommons.org/licenses/by/4.0/
[…] Régulation de l’IA : qui mène la danse ? (maisouvaleweb.fr) […]