Commentaire sur la polémique des perroquets

Un court commentaire à propos de ce papier d’ Hubert Guillaud, sur l’état de la critique de l’IA à gauche qui nierait en quelque sorte, son potentiel, et la critique de la critique de l’IA.

Le papier est orienté vers les Etats-Unis uniquement. Il y a peut-être quelques articles qui présentent cette thèse selon laquelle le camp progressiste serait aveugle aux capacités des LLM, mais c’est à confirmer auprès de ce qu’on pourrait justement appeler la « gauche », (si on prend Bernie Sanders, il a plutôt l’air convaincu de leur puissance, voire un peu trop puisqu’il reprend la rhétorique des risques existentiels). Je rejoins globalement l’idée selon laquelle cet argument sert au final aux défenseurs de l’IA à la défendre sur cette partie du spectre politique. Car, comme Hubert le précise en fin de papier, la gauche a bien un discours critique sur l’IA. On peut donc évacuer ce faux débat.

Le papier se penche ensuite sur les critiques adressées à la notion de « perroquet stochastique », dont certaines en soulignent les limites ou les angles morts, notamment lorsqu’elle est comprise comme une simple manière de dire que les LLM ne feraient, au fond, qu’aligner des suites de mots sans les comprendre. Ces critiques sont diverses, et Hubert a raison d’en écarter certaines. Car il faut rappeler que le texte originel de Bender et al. ne nie pas les capacités des LLM, bien au contraire. Il les resitue dans un contexte social et environnemental, en souligne les risques, et insiste surtout sur un point précis : ces machines produisent des formes linguistiques sans accéder, pour autant, au sens. En ce sens, la métaphore constitue une bonne parade contre les projections abusives du type « ils pensent » (AGI et autres extrapolations) en rappelant que leur fonctionnement repose d’abord sur une production de langage sans compréhension.

Seulement, la critique que fait Saetra dans son article « The Tyranny of the Stochastic Parrot: How AI Critique Became a Way to Not See What’s Happening » n’est pas sur le même plan. Elle ne nie pas la véracité du phénomène « perroquet » (elle l’accueille dès le début) mais sa réception publique paresseuse (« it has started to function like something of a professional comfort blanket »). D’ailleurs, ce point mérite discussion car si la métaphore du perroquet sert notamment à critiquer l’anthropomorphisation des LLM, elle charrie aussi des représentations qui posent forcément des questions. Toutes celles et ceux qui usent de cette métaphore n’ont pas lu l’article initial, et ont pu ici et là détourner la métaphore, comme le dit Bender elle-même (cf. https://jime.open.ac.uk/articles/10.5334/jime.1079). On notera que la « réponse » de Bender aux critiques de la métaphore du Perroquet, citée dans l’article d’Hubert, ne concerne pas le texte de Saetra, qui ne tombe pas dans le mauvais syllogisme que pointe l’autrice.

Saetra ne vise pas Bender et al. mais l’usage routinisé du « perroquet » qui peut servir, dans certaines circonstances, à minorer les transformations impliquées par ces outils sur le travail (que l’article originel sur les Perroquets ne traite pas) et le fait que la question de savoir s’ils pensent ou non n’est pas si importante. Pourquoi cela peut-il être problématique ? Mon avis est que ça l’est quand on force la métaphore du Perroquet sans prendre la peine d’en observer les effets réels. On voit ainsi circuler l’idée (c’est un exemple parmi d’autres) que ChatGPT ne serait qu’un « baratineur » dont on « surestime les capacités », ou encore un outil d’une « puissance médiocre » : autant de formulations souvent opposées aux fictions de l’AGI, mais qui risquent, en retour, de suggérer que ces systèmes ne transformeraient rien d’important. C’est précisément ce point que l’intervention de Saetra oblige à reconsidérer. Et là-dessus je le rejoins car je pense que les prises qu’offrent de tels arguments sont assez faibles (faites le test : allez dire à un développeur que Claude 4.6 est un baratineur, la réalité est un peu plus complexe).

La question étant maintenant, que fait-on de ces sorties alors que l’IA se déploie partout ? Est-ce qu’elles ne donneraient pas l’impression que finalement, les « baratineurs » ne changeront pas grand chose ? Pour ma part, je reste convaincu que les LLM sont un peu trop facilement renvoyés à des outils qui se trompent structurellement (c’est vrai) et qui par conséquent, ne marcheraient pas, ou mal. L’effet, et je crois que c’est l’apport du petit papier de Saetra, est d’oublier que dans le travail réel, un outil n’a pas besoin d’être intelligent ni même fiable en toutes circonstances pour s’imposer : il lui suffit souvent d’être assez bon et rapide pour être intégré aux organisations. Et cette intégration peut se faire suivant différentes modalités (disons, plus ou moins forcée). En gros, il faut tout faire tenir ensemble : un outil peut à la fois n’être pas toujours performant, et pourtant tout changer.

Et justement, sur le terrain, les usages ne se développent pas parce que les modèles sont intelligents, mais parce qu’ils sont jugés utiles sur des tâches circonscrites : produire un premier jet, reformuler, résumer, accélérer une recherche, proposer une structure de code. Leur force ne tient pas à une compréhension du monde, mais à leur capacité à s’insérer dans des chaînes de travail où la rapidité et le volume comptent plus que la justesse. Gebru le dit d’ailleurs très bien quand elle parle de « everything machines » : les LLM font un peu tout, (pas toujours très bien certes). Les effets sur le travail sont diversement vécus et, c’est important, ce « vécu » va clairement évoluer dans les années à venir, une fois que la hype sera retombée et que les utilisateurs auront vraiment vu leurs tâches changer, sinon leurs objectifs, voire leur rémunération. Comme ces outils font un peu de tout, ces effets ne seront probablement pas uniformes : on voit déjà s’installer ici et là des formes de taylorisation ou de déclassement. Ce ne sera peut-être pas le cas partout. Je ne sais pas. Le dire ne revient pas à conforter les récits des industriels mais à documenter la réalité des promesses depuis le travail.

Une meilleure approche serait plutôt de demander : qu’avez-vous à modifier dans vos pratiques pour que l’outil se plie à vos exigences et accomplisse sa mission ? Que devient votre travail ? A quoi ressemblent vos journées ? Avez-vous l’impression d’y gagner au change sur le long terme ?

Après, il faut aussi critiquer l’article de Saetra sur d’autres plans : c’est un pre print court et polémique qui sur-généralise un peu à partir d’une profession (les développeurs, donc en fait plusieurs professions). Et puis sa charge contre les penseurs critiques tend à homogénéiser des positions variables.

Une discussion à poursuivre.

J’ai emprunté un visuel du site « Dans les algorithmes » pour illustrer cet article, comme un perroquet.

S’abonner
Notifier de
guest
1 Commentaire
Inline Feedbacks
View all comments