Dans leur article intitulé « Ne croyez pas à l’hype. Les mythes de l’IA et la nécessité d’une approche critique dans l’enseignement supérieur », publié dans le Journal of Applied Learning & Teaching, les chercheurs Jürgen Rudolph, Fadhil Ismail, Shannon Tan et Pauline Seah déconstruisent pas à pas quelques grands mythes de l’intelligence artificielle (IA) : « Nous démontrons que l’IA n’est pas une entité intrinsèquement autonome, intelligente ou objective, mais plutôt un produit de l’ingéniosité humaine, dépendant d’un travail considérable, souvent sous forme d’exploitation, et de pratiques d’extraction de données. »
Comme pour éviter d’être injustement accusés d’exagérer les fameux huit mythes qu’ils se plaisent à démonter, les auteurs préviennent d’entrée : ces derniers sont bien corroborés par de nombreux textes, citations et prises de positions de personnes influentes dans le milieu de la « Tech ». Les déclarations grandiloquentes concernant l’IA ne se tarissent pas : pour Sundar Pichai (Alphabet) « l’IA sera le changement le plus profond de notre existence », pour Dario Amodei (Anthropic) elle entraînera « le plus grand bouleversement du marché du travail mondial de toute l’histoire humaine », pour Sam Altman (OpenAI), « D’ici une décennie, peut-être que chaque être humain sur Terre sera capable d’accomplir plus que la personne la plus influente aujourd’hui ». Dans un autre registre, Demis Hassabis (DeepMind) avance que l’IA atteindra bientôt la conscience de soi, l’informaticienne Fei-Fei Li annonce que l’IA « a le potentiel d’améliorer la vie de tout le monde dans le monde entier » et Barack Obama lui-même souligne en 2023 son potentiel pour réaliser « d’énormes percées médicales, [fournir] un tutorat individualisé pour les enfants dans des régions éloignées, [et] la possibilité de résoudre certains de nos défis énergétiques et de traiter les gaz à effet de serre. »
Face à ce sensationnalisme de principe, les auteurs soulignent l’importance d’une réévaluation critique du rôle de l’IA dans nos sociétés et interrogent les implications socio-politiques de l’IA. En début d’article une image résume le huit mythes auxquels ils s’attaquent, sur lesquels nous revenons brièvement ici.
Mythe #1 : « L’IA est artificielle »
L’un des premiers mythes que les auteurs abordent est celui de l’artificialité de l’IA. Ce mythe implique que l’IA serait une entité indépendante, déconnectée des humains. Or comme le souligne la chercheuse australienne Kate Crawford, citée par les auteurs, le développement de l’IA est profondément lié au travail humain, à la dégradation de l’environnement et à l’appropriation de la propriété intellectuelle : « L’IA n’est ni artificielle, ni intelligente » écrit-elle (c’est devenu un adage). Son développement repose sur l’utilisation de minéraux rares tels que le cobalt et le lithium, dont l’extraction se fait souvent dans des conditions d’exploitation, notamment dans le Sud global, suivant des logiques proche de l’esclavage. Au niveau de leur entraînement, les IA reposent sur une main-d’œuvre précaire et sous-payée qui travaille à l’optimisation des systèmes (annotation, étiquetage, jusqu’à la modération), souvent dans des conditions de surveillance intense. L’IA, loin d’être une entité autonome, repose sur des ressources humaines et environnementales souvent ignorées. Enfin, les entreprises d’IA monétisent des contenus sous propriété intellectuelle : l’extraction concerne aussi la connaissance disponible sur internet dans son ensemble, sans partage de la valeur (à quelques exceptions près).
Mythe #2 : « L’IA est intelligente »
L’idée que l’IA possède une forme d’intelligence comparable à celle des humains est un autre mythe largement répandu. Les auteurs montrent que l’intelligence humaine est un complexe, multidimensionnelle (linguistique, logico-mathématique, spatial, musical, corporel-kinesthésique, interpersonnel, intrapersonnel et naturaliste) et non réductible à une simple mesure comme le QI. Le paléontologue Stephen Jay Gould a par ailleurs bien montré dans son excellent livre La mal mesure de l’homme que les tests traditionnels d’intelligence et les mesures telles que le QI ont longtemps été critiqués « pour leur côté arbitraire, leurs biais et leur portée limitée. Leur fondement même est entaché par les tentatives pseudo-scientifiques du XIXe siècle visant à établir la supériorité inhérente des Européens blancs, justifiant ainsi la répression coloniale, l’exclusion et l’eugénisme ».
L’IA ne pense pas, mais opère par raisonnements mathématiques et statistiques, elle applique des modèles prédictifs basés sur des algorithmes et des données, ce qui la rend fondamentalement différente de l’intelligence humaine. La notion même d’AGI (intelligence artificielle générale), tout comme celle de « super intelligence », ou encore de « singularité technologique » (point d’inflexion vers une intelligence supérieure, telle qu’anticipée par Ray Kurzweill, comme ayant lieu en 2045), est problématique. L’avènement spéculé de ces simili IA conscientes oriente les débats vers des questionnements à long terme (notamment dans le cadre d’idéologie comme le « long-termisme ») et nous détournent des véritables enjeux présents que posent ces technologies. J’étais par ailleurs revenu sur ces « Vrais et faux débats de l’IA » dans un article sur « Mais où va le web ? ».
Mythe #3 : « l’IA rendra le monde meilleur – plus démocratique, plus égalitaire, plus écologique, plus progressiste, plus “ce-que-vous-voulez” »
Une autre croyance omniprésente est que l’IA aura des effets positifs sur la société, en la rendant plus démocratique, égalitaire, et écologique. Une affirmation qui ne résiste pas à la réalité : de l’essor des Deepfakes à la propagande ciblée automatisée qui fait vaciller les systèmes démocratiques en accentuant la polarisation sociale, une telle affirmation ne repose sur pas grand chose d’autre qu’une foi aveugle en la technologie. L’utilisation de systèmes d’IA pour véroler de l’intérieur des scrutins électoraux indique plutôt sa contribution à la déstabilisation des valeurs démocratiques – conjointement à la transformation progressive du paysage audiovisuel et à l’accaparement éditorial des chaîne d’information en continu, serait-on tenté d’ajouter. Quant à l’aspect environnemental, je ne reviendrai pas ici dessus tant il devient évident que la consommation massive de ressources naturelles pour fabriquer des puces électroniques et autres composants est devenu l’épicentre de nombreux conflits géopolitiques, aux prix d’une pollution globale inédite (voir notamment à ce titre, l’ouvrage « La ruée minière au XXIe siècle » de Célia Izoard, au Seuil.
Mythe #4 : « L’IA est objective et impartiale »
L’IA est souvent perçue comme une technologie objective, capable de fournir des résultats sans biais. Rien n’est plus faux : les modèles d’IA génératives sont conçus pour produire un langage semblable à des faits et qui semble précis, mais ils sont formés sur des ensembles de données vastes et souvent biaisées, obsolètes ou erronées, ce qui nuit à leur objectivité. Cela peut entraîner des erreurs dans les résultats, confirmant l’adage « garbage in, garbage out ». Les systèmes d’IA sont donc loin d’être impartiaux. Ils sont alimentés par des ensembles de données qui peuvent être biaisés ou obsolètes, entraînant des erreurs de toutes sortes. Ces erreurs (notamment celles produites par des IA génératives comme ChatGPT) peuvent même se retrouver dans des documents cruciaux, faussant ainsi les bases de connaissance permettant de prendre des décisions : « Les absurdités de ChatGPT peuvent maintenant être retrouvées dans des dossiers juridiques, des articles de presse, des publications sur les réseaux sociaux, des prépublications scientifiques et d’innombrables essais d’étudiants plagiés » explique Shannon Vallor dans son ouvrage « The AI Mirror How to Reclaim Our Humanity in an Age of Machine Thinking ».
Mythe #5 : « Les États-Unis sont la seule superpuissance en matière d’IA »
L’IA est souvent perçue comme un domaine dominé par les États-Unis et leurs grandes entreprises technologiques : Google, Microsoft, Open AI. Pourtant, la Chine a émergé comme un concurrent sérieux dans le domaine : « Baidu, surnommée « le Google de la Chine », a lancé plusieurs modèles d’IA comparables à ceux d’OpenAI, comme Ernie 3.0 (2019) et Ernie Bot (2023), ce qui prouve la compétitivité de la Chine malgré des contraintes technologiques et géopolitiques. ». De fait, le pays s’est de longue date lancé dans « la guerre des 100 modèles » et disposait il y a déjà plus d’un an de 40 % des LLM dans le monde. Plus récemment, le modèle DeepSeek, a défrayé la chronique, au point d’être qualifié de « moment Spoutnik » aux États-Unis —bien que cette référence historique mérite de la nuance. Ce phénomène souligne que l’IA n’est pas l’apanage d’une seule nation et que la dynamique mondiale du secteur est plus complexe et moins centralisée qu’elle ne le paraît.
Mythe #6 : « L’IA n’affectera pas significativement le marché du travail »
L’idée que l’IA ne perturbera pas substantiellement le marché du travail est un autre mythe auquel les auteurs s’attaquent. Or l’avancée de l’IA générative pourrait mener à l’automatisation de nombreux emplois, ce qui entraînerait un déplacement massif des travailleurs sur différentes chaînes de valeur. L’intégration de l’IA dans les secteurs professionnels pourrait réduire les opportunités d’emploi stable et de qualité, créant ainsi de nouvelles formes de précarité : « L’IA ne se contente pas de remodeler la nature du travail, elle redéfinit également ceux qui bénéficient des progrès technologiques, élargissant ainsi l’écart entre ceux qui contrôlent le développement de l’IA et ceux qui en subissent les conséquences. » Au-delà des suppressions d’emplois directes, avancent les auteurs, l’IA remet en question la pertinence des compétences et la préparation de la main-d’œuvre.
J’ajouterais ici une nuance : le spectre du chômage technologique ne fait pas vraiment consensus, cependant, il offre une opportunité sans égale pour mettre sous pression les travailleurs en leur faisant craindre d’être remplacés, surtout dans le but de peser dans le rapport de force entre capital et travail. Comme je le soulignais précédemment : « Souvenons-nous de l’affaire, paradigmatique, de l’entreprise Onclusive, spécialisée en veille médiatique, qui avant de faire marche arrière, avait menacé de licencier plus de 200 salariés en France avec l’IA comme prétexte (et une idée derrière la tête : faire appel à une équipe de sous-traitance basée à Madagascar). »
Mythe #7 : « L’IA révolutionne l’enseignement supérieur »
C’est un des points les plus développés dans l’article de Rudolph, Fadhil Ismail, Shannon Tan et Pauline Seah. En synthèse, l’IA a été présentée comme une révolution pour l’enseignement supérieur, promettant une amélioration des résultats d’apprentissage et de l’efficacité administrative. Pourtant, les preuves tangibles de cette révolution sont rares. En fait, l’IA a introduit de nouveaux défis, comme la menace pour l’intégrité académique, la baisse des performances d’apprentissage et la réduction des compétences en pensée critique. L’UNESCO elle-même a reconnu que les preuves de l’efficacité de l’IA dans l’éducation restent insuffisantes. Et les auteurs d’affirmer : « L’IA n’a pas résolu les crises dans les systèmes éducatifs des États-Unis, du Royaume-Uni et de l’Australie, qui souffrent de l’enseignement supérieur de plus en plus axé sur le profit, la précarité des emplois, et les évaluations basées sur des indicateurs ».
Mythe #8 : « Les enseignants du supérieur peuvent détecter l’IA avec ou sans IA »
Enfin, la croyance que les enseignants sont capables de détecter l’utilisation de l’IA dans le travail des étudiants serait largement infondée. Les outils de détection d’IA (tels que iThenticate ou Turnitin) sont souvent inefficaces et incapables de distinguer les écrits générés par l’IA de ceux rédigés par des humains : « OpenAI a admis publiquement que les détecteurs d’IA sont largement inefficaces, reconnaissant que même leur outil le plus avancé a faussement identifié des textes rédigés par des humains, y compris des œuvres de Shakespeare et la Déclaration d’Indépendance, comme étant générés par l’IA. » Cette situation reflète un fossé grandissant entre les avancées technologiques et la préparation des institutions éducatives, qui peinent à mettre en place des stratégies de gouvernance adaptées.
Conclusion
Le papier de Jürgen Rudolph, Fadhil Ismail, Shannon Tan et Pauline Seahest n’apporte pas d’éléments particulièrement nouveaux. Mais la synthèse a cela d’utile qu’elle permet cette pause dans la production scientifique, le bilan et, peut-être aussi, le positionnement normatif. En effet, l’intelligence artificielle repose sur des mythes, ceux décrits ici, mais aussi un certain nombre d’autres purement idéologiques que le journaliste Thibault Prevost avait parfaitement consignés et historicisés dans son ouvrage « Les prophètes de l’IA » (Éditions Lux, 2024). Dévoiler les ressorts de la « hype » demeure ainsi une nécessité, quand bien même l’exercice peut sembler répétitif : si les arguments lancés ici ont besoin d’être réassénés, c’est probablement parce qu’ils peinent à percer et donc, que ces mythes continuent de convaincre.
Il faut bien comprendre que cela n’a rien d’anecdotique ni d’hasardeux. Comme le rappelait récemment Meredith Whittaker, Présidente de la fondation Signal et co-fondatrice du AI Now Insitute, dans un entretien à Politico, les phénomènes de « hype » sont structurellement liés au fonctionnement même des marchés technologiques et de l’intelligence artificielle : « Le problème n’est pas seulement qu’une technologie en particulier est survendue (“overhyped”), mais que le battage médiatique est un élément essentiel de l’écosystème économique actuel de l’industrie technologique. Il est crucial d’examiner à quel point les incitations financières à la surenchère sont récompensées, sans réel bénéfice social, sans progrès technologique significatif, sans que ces outils, services et mondes ne se concrétisent véritablement. » C’est une clé pour comprendre le fossé grandissant entre le récit des techno-optimistes et la réalité d’un monde de plus en plus entravé par la technologie.
Image en tête d’article : Nadia Piet + AIxDESIGN & Archival Images of AI / Better Images of AI / Ways of Seeing / CC-BY 4.0