Vrais et faux risques de l’intelligence artificielle

Ceux qui suivent depuis un moment les développements de l’intelligence artificielle (IA) l’auront noté : c’est de manière cyclique que surgissent d’une part les bouquets de promesses, de l’autre les peurs et les doutes. Ainsi la décennie 2010 aura suscité tous les espoirs, après la sortie d’un long « hiver de l’IA » et l’émergence des modèles d’apprentissage profond. Dès 2015, une rafale de critiques vient néanmoins plomber l’ambiance, pointant les controverses sociotechniques liées à ces progrès, le tout alimenté de nombreux ouvrages en sciences humaines et en France, la publication du très lu Rapport Villani. Un nouveau cycle de promesses s’amorce à l’orée de l’année 2023, avec le déploiement des grands modèles de langage, aussitôt suivi de questionnements quant à leurs impacts social et environnemental. De ce mouvement de balancier, nous pourrions espérer une plus grande maturité collective dans l’appréhension commune des enjeux liés à l’IA. Celle-ci est loin d’être acquise. Dans la cacophonie médiatique comme dans le fond des sujets, l’appréhension et la hiérarchisation des risques de l’intelligence artificielle vise souvent à côté, et les réponses aux antédiluviennes questions sur les dégâts du progrès sont toujours attendues.

Nous souhaitons avec ce texte, réarmer le débat sur l’IA en portant l’attention – un peu arbitrairement peut-être –  sur cinq angles morts qui le polluent actuellement.

Hiérarchie médiatique sensationnaliste

Un premier problème majeur est la manière avec laquelle sur la place publique, les débats relatifs à l’IA sont polarisés entre excès d’optimisme et rejet total des technologies. Le constater ne nous apporte cependant pas grand-chose d’un point de vue analytique. La place des médias dans ce processus, par exemple, reste peu interrogée. Elle est pourtant au centre de nombreux travaux de recherche qui auscultent les prises de parole d’experts et le choix des sujets dans la presse écrite. Dans une enquête portant sur un corpus de 35 237 articles français publiés entre 2000 et 2019, les chercheuses Anne Bellon et Julia Velkovska ont ainsi montré que les personnalités invitées ou invoquées pour aborder les enjeux de l’IA étaient avant tout des patrons d’entreprises, des futurologues ou des informaticiens. Parmi les 15 personnes les plus citées de leur corpus, on ne trouve aucun chercheur en sciences sociales, ni syndicaliste ou autre groupe représentatif des personnes concernées par son essor[1]. Dans les journaux, on lira donc plus souvent l’entrepreneur transhumaniste Laurent Alexandre, le philosophe Raphaël Enthoven ou l’informaticien Yann Le Cun (Meta) que les autrices de ladite étude ou leurs collègues.

Ce schéma est corroboré ailleurs. Partant d’un corpus de 29 342 articles, le Médialab de Science Po a montré qu’aux États-Unis et au Royaume-Uni, seulement 7,1 % d’entre eux pouvaient être qualifiés de « critiques ». La critique portant en priorité sur les troubles produits par les algorithmes et les craintes quant au surgissement de machines autonomes[2]. Toujours au Médialab, une autre étude d’ampleur mêlant enquête collective et analyses de textes, « Shaping AI », indique que les médias ont tendance à amplifier les enjeux relatifs à l’IA « en leur donnant une tonalité positive ou négative ». Les coupures de presse choisies pour illustrer l’enquête sont édifiantes : l’IA menace de « tuer le libre arbitre » et inquiète « Musk, Hawking et Gates », mais promet tout à la fois le « pancréas artificiel » et « l’homme augmenté »[3]. Si là encore, on comprend que le traitement médiatique de l’IA est globalement neutre (71 %), la part des récits enthousiastes domine le reliquat à hauteur des deux tiers.

De manière générale, les médias commentent les percées technologiques (souvent très relatives) et le développement économique, au détriment des questions sociales et éthiques. Et lorsque celles-ci surgissent, elles puisent le plus souvent dans un répertoire de références populaires issues de la science-fiction. Dans leur enquête, Bellon et Velkovska expliquent que c’est là une manière pour les journalistes de « mettre l’IA à la une » en cultivant les discours de rupture et en exagérant « à la fois ses capacités et les risques potentiels associés. »

Les représentations sensationnalistes de l’IA n’émanent donc pas du néant. Les « peurs » de substitution homme-machine, d’envahissement par des IA autonomes et autres fantasmes non plus. Le cadrage médiatique en est pour partie responsable. Du strict point de vue journalistique, l’IA demeure un sujet technique à mettre en forme pour capter l’attention des lecteurs. Dès lors, il faut susciter l’intéressement et l’émerveillement, commenter (ou produire) ce qui fait événement. Depuis 1996 et la victoire de l’ordinateur Deep Blue (IBM) face au joueur d’échecs russe Garry Kasparov, les « matchs » entre humain et machines contribuent à cette dramaturgie en imposant une chronologie de « grands moments » souvent décorrélés des véritables bonds technologiques. De larges audiences restent ainsi prisonnières des visions enthousiastes des marchands de futur et leurs déclinaisons médiatiques sensationnalistes privilégiant les discours tranchants. De tels cadrages contribuent à bâtir un des risques les plus sous-évalués de l’IA, que la question suivante résume « qui parle de l’IA et pour en dire quoi ? », avec une issue univoque, celle de mal formuler les problèmes que ces technologies posent.

Vrais et faux opposants à l’IA

Aux excès de sensationnalisme qui dégoulinent d’une partie de la presse, répond une autre hiérarchie questionnable, celle des frayeurs et des critiques. De longue date, les développements technologiques font l’objet de doléances et de remises en question, jusqu’au sabotage sur les lieux de travail. La technologie pose des questions politiques à toutes les échelles, mais certaines semblent être plus scrutées que d’autres. Un fait récent l’illustre. En mai 2024, un mouvement militant, « Pause AI », fait l’objet de plusieurs articles dans la presse à la suite de manifestations organisées à Paris, Londres, Berlin, San Francisco, New York, Rome, La Haye, Stockholm, Oslo et Sydney. En France, l’événement est coordonné par Maxime Fournes, ancien trader dans un hedge fund londonien. Le message : freiner, voire arrêter les développements de l’IA dans le but d’éviter les « risques existentiels » et prévenir l’essor d’une « intelligence artificielle générale ». Pour Fournes, le sujet est sérieux, il pourrait gagner beaucoup d’argent en allant « bosser pour Mistral ou DeepMind[4] », mais préfère militer en faveur de traités internationaux ou d’un « référendum mondial » sur le développement d’une intelligence artificielle surhumaine[5]. » Si l’IA n’est certainement pas sans risques (pensons par exemple aux ravages des manipulations permises par l’hypertrucage ou Deepfake, notamment pendant les périodes électorales[6]), on s’étonne que soient mis sur le même plan les récits apocalyptiques dissertant, pourcentages à l’appui, sur les probabilités d’une extinction prochaine de l’humanité à cause de l’IA (3 % en 2100 selon certains experts)[7].

La sémantique a son importance. Elle emprunte aux analyses des courants idéologiques états-uniens tels que le long-termisme ou l’altruisme efficace, où les risques hypothétiques à très long terme dominent ceux du présent. L’événement montre aussi toute la rémanence des critiques de l’IA basées sur des spéculations. En 2017, nous interrogions Cédric Sauviat, ingénieur et fondateur de l’Association française contre l’intelligence artificielle (AFCIA), lequel tenait un discours critique et à certains égards, tout aussi alarmiste, sans pour autant céder aux sirènes du long-termisme[8]. L’inquiétude concernait le fait d’atteindre le « point de singularité technologique » et donc, la possibilité d’une IA autonome et malveillante. La réponse alors proposée par l’association : stopper de toute urgence la recherche dans le domaine de l’intelligence artificielle pour éviter de perdre le contrôle de notre « créature ». Cette montée en généralité peut déconcerter. Terrifiées par la menace que ferait peser l’IA sur la « condition humaine » et les effets potentiels de « l’intelligence artificielle générale », des organisations comme l’AFCIA et « Pause AI » présentent le problème de façon si totale qu’il devient ardu de savoir par quel bout l’attraper, et quelle issue proposer sinon des solutions tout aussi totales et pas toujours adaptées à la particularité des situations rencontrées. C’est d’autant plus regrettable que « Pause AI » se trouve être la seule organisation à avoir produit une contre expertise suite à la publication du rapport publié par la Commission de l’intelligence artificielle publié en mars 2024 – un exercice utile par ailleurs.

En tout état de cause, le régime d’énonciation de la critique finit par s’enliser à un stade spéculatif et spectaculaire déconnecté des problématiques de terrain, où les contestations se démarquent de ces récits attrape-tout. Un exemple illustre cette complexité, celui des traducteurs. Premières victimes des grands modèles de langage tels que ChatGPT, ils se sont pour certains réunis en France derrière le collectif « En chair et en os » en 2023, et font valoir le caractère réflexif de leur métier et le risque d’une standardisation du langage « pour des considérations financières ou de gain de temps, réel ou supposé[9] ». Ici, il s’agit moins de les remplacer que de les déplacer sur la chaîne de valeur, tout en en profitant pour réduire leurs rémunérations et détériorer leur statut. De ce point de vue, l’IA est moins une rupture qu’une continuité, une radicalisation d’un processus au long cours dans le capitalisme moderne. Souvenons-nous de l’affaire, paradigmatique, de l’entreprise Onclusive, spécialisée en veille médiatique, qui avant de faire marche arrière, avait menacé de licencier plus de 200 salariés en France avec l’IA comme prétexte (et une idée derrière la tête : faire appel à une équipe de sous-traitance basée à Madagascar). Pour en revenir aux traducteurs, l’adversaire n’est pas un risque abstrait, mais l’autre partie de la chaîne de valeur : maisons d’édition, diffuseurs, États – tous utilisateurs d’outils d’IA – qu’il s’agit de pousser à réguler son usage, en commençant par exemple, par notifier le lecteur lorsque celle-ci a été employée. Plus qu’une « pause » dans les développements de l’IA, ou un référendum mondial – dont une partie de la « tech » s’accommode parfaitement[10] – un rapport de force s’enclenche et nécessite l’investissement des travailleurs organisés, des syndicats, d’une branche tout entière.

Le risque du déssaisissement décisionnel dans la sphère du travail

C’est là un autre point aveugle dans le débat sur les risques de l’IA : la qualité de la négociation locale à propos de la légitimité de son déploiement et, le cas échéant, ses modes de diffusion au sein des entreprises. Il existe une vaste littérature en sciences humaines et sociales qui a documenté tout un panel de ces micro-situations. Dans une enquête qualitative menée en 2023 analysant 96 cas d’application d’implémentation de l’IA au sein de différents métiers dans huit pays de l’OCDE, l’économiste Anna Milanez montre que ses effets sur le travail sont nuancés[11]. Dans la moitié des cas, les travailleurs sont déplacés et dans un quart, supprimés ou réalloués. Les effets sur les travailleurs sont positifs ou négatifs selon les situations (gain de temps ou de confort, accroissement de la surveillance des salariés, solitude, surcharge cognitive, etc.).

Les effets « fins » de l’IA sur le travail ont également été analysés dans le cadre du programme « Labor AI » qui a souligné l’existence d’une opposition entre une « logique gestionnaire » (promue par les concepteurs de l’IA) et une logique de « travail réel » plus proche du vécu des salariés. Sans entrer dans les détails de l’étude, retenons sa conclusion qui incite, entre autres choses, à améliorer le « dialogue social technologique » en partant du travail réel (tel qu’il se pratique) plutôt que du travail prescrit (la fiche de poste). En un mot : rendre les IA « capacitantes » au travail, c’est-à-dire discuter de ses objectifs, des règles d’usage ou encore de l’ergonomie des interfaces. On trouvera des conclusions similaires dans une note du syndicat Force Ouvrière (FO) dont une des préconisations est « d’intégrer réellement – au-delà des discours – les travailleurs concernés dans les processus de décisions de transformation technico-organisationnelle du travail[12]. »

On pourrait revenir sur la relative banalité de ces constats : faire participer les travailleurs à la détermination des choix qui concernent leurs outils de travail peut sonner comme une évidence. Elle est d’ailleurs inscrite dans la loi : dans une entreprise, toute introduction d’une nouvelle technologie est l’affaire du Comité social et économique (CSE) qui peut être consulté lorsque ladite introduction entraîne une restructuration et une compression des effectifs (art. L. 2312-37 et art. L. 2312-39) ou des licenciements économiques (art. L. 2312-37 et art. L. 2312-40).

Ces appels à la participation des travailleurs ne sont pas nouveaux. Dès les années 1980, les Lois Auroux ouvrent la voie à leur participation aux décisions qui les concernent en créant les Comités d’hygiène, de sécurité et des conditions de travail (CHSCT). Ce droit s’est cependant étiolé, plus encore depuis les ordonnances Macron (2017) qui aggravent l’insécurisation des travailleurs en imposant la fusion des instances de représentation du personnel.

La question de l’introduction de techniques nouvelles dans la sphère du travail et plus globalement, son automatisation, reste un sujet couvert par les chercheurs et occupe un certain nombre d’organisations (syndicats au premier plan, mais aussi France Stratégie ou encore le Conseil National du Numérique[13]) qui en font l’objet de rapports à intervalle régulier. Plus spécifiquement, le sort des livreurs, modérateurs et travailleurs du clic, ouvriers de la logistique et manutentionnaires « automatisés » ont donné lieu à des enquêtes approfondies[14]. Mais l’IA est à présent massivement déployée dans des milieux professionnels plus ou moins bien protégés et organisés. Ce processus est-il considéré comme un « risque », au sens où l’entendent ceux qui emploient ce terme (dont les critiques précitées, mais aussi la régulation qui fait de cette notion sa pierre angulaire) ? En aucun cas. Il est pourtant clairement établi que lorsque des changements importants sont imposés dans une entreprise, ils peuvent susciter une perte de sens au travail, et ont parfois pour rançon la dégradation de la santé physique et mentale des travailleurs ainsi qu’une hausse de l’absentéisme[15].

En France, le récent rapport publié par la Commission de l’intelligence artificielle en convient d’ailleurs parfaitement, mais s’arrête au constat et aux bons sentiments en invitant à « Faire du dialogue social et professionnel un outil de co-construction des usages et de régulation des risques des systèmes d’IA » (recommandation n°3). Peu de risques sont pris dans l’analyse des récentes modifications ayant pesé sur les instances prévues pour tenir ce dialogue. On n’y trouvera par ailleurs peu de traces des nombreuses propositions déjà envisagées pour le renforcer[16], et une perception discutable du dialogue, dont le succès devrait être conditionné à la « formation » des « partenaires sociaux ».

Le risque d’un épuisement démocratique

Dans son ouvrage La société du risque, publié l’année de la catastrophe nucléaire de Tchernobyl (1986), le sociologue allemand Ulrich Beck pose un des jalons essentiels à la réflexion sur les dégâts occasionnés par les sociétés industrielles modernes. Son point de départ, l’hypothèse d’une « rupture à l’intérieur de la modernité » : non seulement celle-ci n’a pas tenu ses promesses, mais elle génère des dangers en série (environnementaux, chimiques ou sanitaires). Le point de mire de Beck : démocratiser les décisions scientifiques et technologiques et ainsi engager l’entrée dans une « modernisation réflexive ». Intellectuellement excitantes, ces formules connaissent un succès immense. Néanmoins, la pensée de Beck vise avant tout les grandes trajectoires technoscientifiques (nucléaire, génétique). Dans les années qui suivent, le courant de la « Démocratie technique » vient poser une pierre à l’édifice en mettant l’accent sur les mobilisations citoyennes locales (« Forums hybrides »), avec un constat toutefois partagé : la participation des « profanes » au processus décisionnel concernant les sciences et les techniques est devenu une nécessité. Cette construction intellectuelle conduit, chemin faisant, à des formes de régulation des mutations technologiques : le droit à l’information et au débat, le principe de précaution. Ces principes finissent par s’ancrer dans le droit avec, pour le cas français, la création de la Commission nationale du débat public (CNDP) en 1995.

La littérature sur la démocratisation des choix technologiques abonde et dépasse bien sûr, ces quelques auteurs. On en déduira pour faire court, qu’elle engage, au-delà des questions techniques, à des réflexions de fond sur les modalités d’exercice de la démocratie. Depuis plusieurs années maintenant, ces réflexions ont touché le domaine de l’IA, et la nécessité de sa mise en débat est souvent abordée : pour éviter les risques qu’elle fait peser sur la société et certains utilisateurs, il conviendrait de les inviter à participer à la conception des systèmes et à la définition des usages. Les débats publics et autres concertations ou conférences de citoyens autour de ses enjeux propres se sont dès lors multipliés. A Londres en 2019 et à Rennes en 2024, des panels de citoyens ont été invités à produire des recommandations sur l’IA et les technologies biométriques. Ces formats continuent toutefois de rencontrer les mêmes limites : ils demeurent anecdotiques et mal financés, leurs conclusions sont de bonne qualité mais peu activables. Elles peinent par ailleurs à s’ajuster aux échelles démesurées où interviennent les plus grands concepteurs de ces technologies.

Le cadre régulatoire n’a pas pris la mesure de ce déficit démocratique. Si la notion de « risque » est bien envisagée dans le DSA ou l’IA Act, la participation des citoyens à leur définition reste abstraite et peu circonstanciée. L’invocation des citoyens reste un pis-aller que la réalité fait mentir : des outils d’IA problématiques continuent d’être déployés sans débat. En témoigne le choix récent d’expérimenter la vidéosurveillance algorithmique lors des Jeux Olympiques et paralympiques, à Paris ou encore Saint-Denis[17]. Des technologies qui en plus de briller par leur inefficacité, constituent « un changement d’échelle sans précédent dans les capacités de surveillance et de répression de l’État et de sa police », selon l’association de défense des droits et des libertés sur Internet La Quadrature du Net[18].

La définition des risques reste donc accolée à des décisions qui échappent aux citoyens, dont la légitimité à participer à ces décisions reste fragile. En avril 2024, la CNDP échappait de peu à sa mort annoncée dans le cadre du projet de loi de simplification rédigé par l’équipe de Bruno Le Maire[19]. À peine un mois plus tard pourtant, lors d’un discours tenu à Vivatech devant 200 personnalités de l’IA, le Président de la République confiait au Conseil national du numérique (CNNum) une mission « d’acculturation des citoyens à l’IA », en organisant un « grand débat généralisé » sur le sujet. Le cadrage ne visait pas tellement à démocratiser sa conception : Emmanuel Macron souhaitait plutôt éviter de reproduire un débat collectif mal engagé comme le fut, selon lui, celui sur les robots, une révolution ratée par la France et réussie par l’Allemagne : « Il y a plein de gens qui me disaient : « Ça va être l’horreur, terrible, affreux, c’est déshumanisant, ça va mettre tout le travail en l’air[20] » ». Si le CNNum a décliné cette stratégie en un procédé « d’appropriation » de la technologie lors de « Cafés IA », la tâche reste ardue : sans articulation avec les sphères décisionnelles, ces sympathiques bulles de bavardages, aussi souhaitables soient-elles, risquent de faire vivoter une démocratie technique sans conséquences, avec le risque d’alimenter les conclusions de nombreux travaux en sociologie de l’action publique qui montrent que le seul objectif des offres de participation est de canaliser les mécontentements sans changer la vie. Les « faux débats » sur l’IA sont autant de clous plantés dans le cercueil de la démocratie.

IA Act : le risque de réguler par les risques

En matière d’IA, l’évocation de la notion de « risque » est pourtant omniprésente. Elle est centrale dans les régulations les plus récentes sur le Vieux continent comme le DSA, et surtout l’IA Act. Adopté en mai 2024, le règlement classifie les systèmes d’IA selon quatre catégories de risques (limités, minimaux, élevés et inacceptables). Divers systèmes sont ainsi prohibés, par exemple la mise sur le marché des produits ayant recours à des techniques subliminales (manipulation comportementale) ou encore de scoring social par des entités publiques, à l’instar du système de notation sociale chinois. S’il est entendable que le texte, à portée extraterritoriale, constitue une première dans la régulation globale de l’IA, il n’en demeure pas moins truffé d’exceptions (sur la reconnaissance faciale en temps réelle, pour n’en citer qu’une). Aussi faut-il en dépasser la chronique paresseuse et revenir sur ses failles, mises en lumière par les communautés de chercheurs et une partie de la société civile organisée.

Le faisceau de critiques à connotation politiques adressées à l’IA Act reproche au texte de postuler une vision ethnocentrée et neutre de la technologie, tout en proposant une régulation paternaliste des risques, internalisant leur gestion chez leur auteur. Autrement dit, ces derniers décideront eux-mêmes s’il convient de les faire évaluer. Cette évaluation sera en outre réalisée par des autorités indépendantes (« notified bodies »), en proie au conflit d’intérêt, tout simplement parce qu’elles reçoivent une commission de la part des fournisseurs d’IA et ont donc une motivation économique à répondre à leurs intérêts. La notion même de « risque » reste en grande partie une zone grise (à partir de quand passe-t-on d’un risque faible à élevé ?). Leur évaluation repose sur des standards établis par des organismes privés comme le CEN (European Committee for Standardization) et le CENELEC (European Committee for Electrotechnical Standardization), ce qui revient à leur déléguer un important pouvoir normatif[21]. Il n’est en outre rien de prévu dans le texte pour superviser démocratiquement ces standards, via des associations de consommateurs par exemple. La détermination des risques reste par ailleurs accolée à des technologies en constante évolution, dans des contextes nationaux variés. Comme le souligne la chercheuse en sciences juridiques Antoinette Rouvroy, un système qui détecte des risques sur la santé peut-être tout à fait favorable dans un pays où l’assurance santé universelle existe, mais plus problématique dans un pays où les citoyens doivent la financer eux-mêmes[22]. De la même manière, diffuser largement un outil d’IA dans le domaine de la santé, dans un pays fortement pourvu en médecins ou spécialistes ne présente pas le même risque d’engorgement du système de soin que dans un pays où ces derniers sont plus rares.

À cette première salve de critiques s’ajoute une deuxième, plus philosophique peut-être, ayant trait à la détermination du type de société numérisée souhaitable ou non. Aussi surprenant que cela puisse paraître, la régulation sur l’IA ne dit rien, par exemple, de ses implications environnementales et de son coût énergétique. Un exemple pioché dans l’actualité récente l’illustre : l’option « retouche magique » des smartphones Pixel 9 de Google, qui permet d’insérer des objets créés de toutes pièces à une photo[23]. La fonctionnalité n’est pas nouvelle, mais son déploiement massif dans toutes les poches pose non seulement des questions éthiques (création industrielle de fausses images) mais aussi celle de sa consommation électrique. Si la notion de risque repose, comme dans l’IA Act, sur celle « d’acceptabilité », alors peut-être est-il temps de se doter d’outils législatifs capables d’accroître le discernement collectif et d’opérer un tri entre l’utile et le futile.

***

C’est un poncif, l’IA présente des risques. Le MIT en a d’ailleurs identifié plus de 700, répartis en 7 domaines et 23 sous-domaines[24]. L’enjeu consiste moins à les répertorier exhaustivement qu’à saisir ce qui nous empêche d’en apprécier la diversité et d’envisager les bonnes manières de les éviter a priori au mieux, de les gérer a posteriori au pire. Les discours et les critiques tenus sur l’IA sont de ce point de vue primordiaux : en augmenter la qualité demande à ce qu’une sélection plus variée de points de vue soit opérée. Les quelques figures qui incarnent aujourd’hui ce débat ont déjà commencé à l’enfermer dans un immense piège à clics. Le traitement médiatique de l’IA doit aussi s’extraire des promesses qui ne se réalisent jamais, tout comme des visions eschatologiques sermonnées par les prophètes du malheur. Enfin, la gestion des risques ne peut constituer à elle seule un mode de gouvernement, au risque de verser dans un éternel monitoring ex post de systèmes n’ayant jamais fait l’objet d’aucun débat démocratique.

Pour sortir de l’ornière, plusieurs solutions peuvent être envisagées. Elles sont pour la plupart connues, et mériteraient d’être mises plus souvent à l’agenda médiatique. En synthèse, nous avons besoin d’un vrai processus d’engagement vers une démocratie technique solide. La notion de risque est ici une alliée : plus les risques sont importants, plus ils devraient faire l’objet de réels débats citoyens ou bien ouvrir la possibilité d’interpellations. C’est précisément l’inverse qui est aujourd’hui proposé. D’autres mécanismes, comme le Devoir de vigilance ou encore la Directive sur le travail des plateformes, permettent d’envisager plus franchement les questions relatives aux conditions de production de l’IA et à ses implications sociales. Il faut continuer dans cette voie. Le « Sommet pour l’action sur l’IA[25] » qui se tiendra en France en février 2025 pourrait être une bonne occasion de pousser cet agenda, à moins qu’il ne faille le faire dans un contre-sommet : la question reste ouverte.

[1] Anne Bellon, Julia Velkovska, « L’intelligence artificielle dans l’espace public : du domaine scientifique au problème public Enquête sur un processus de publicisation controversé », Réseaux, vol. 4, n° 240, p. 31-70, Paris, La Découverte, 2023.

[2] Maxime Crépel, Dominique Cardon, Robin de Mourat, Donato Ricci, Jean-Philippe Cointet, et al.. Critique de l’IA dans la presse. 2021. https://hal.science/hal-03384126

[3] Voir https://medialab.github.io/ShapingAI/#medias

[4] « « Pas de futur sans IA sûre » : des technophiles alertent sur les dérapages des IA génératives », Axelle Playoust-Braure, L’ADN, 15 mai 2024.

[5] Marine Protais, « À Paris et dans le monde, les inquiets de l’intelligence artificielle appellent à une pause », La Tribune, 14 mai 2024.

[6] Ainsi en septembre 2023 en Slovaquie, un Deep Fake circule quelques heures avant les élections, et met en scène le chef de file du parti centriste et pro-européen Michal Simecka expliquant à une journaliste que le vote allait être manipulé en sa faveur. Voir « Lutte contre la désinformation : les élections en Slovaquie, premier test raté de la politique européenne »,  Jean-Baptiste Chastand et Damien Leloup, Le Monde, 04 octobre 2023.

[7] Voir notamment The Economist, « What are the chances of an AI apocalypse? », 10 juillet 2023. Critiques partagées par ailleurs, par plusieurs figures qui pèsent dans le milieu, comme Mustafa Suleyman, fondateur de Deep Mind, dans son ouvrage The coming wave, Technology, power and the 21st century’s greatest dilemma (Crown, 2023).

[8] « On peut être contre l’intelligence artificielle par principe », Irénée Régnauld, Usbek & Rica, 12 janvier 2017.

[9] « Manifeste En chair et en os pour une traduction humaine », à lire sur le blog de Mediapart.

[10] En témoignent les récentes prises de position du « Future of Life Institute » (FLI) invitant à faire une pause dans les développements de l’IA. Voir Pause Giant AI Experiments: An Open Letter https://futureoflife.org/open-letter/pause-giant-ai-experiments/

[11] Voir https://ideas.repec.org/p/oec/elsaab/289-en.html

[12] Voir notamment https://ires.fr/wp-content/uploads/2024/07/AO-2018-3_travail_IA_2024.pdf

[13] Voir notamment « Humains et Machines. Quelles interactions au travail ? » (cnnumerique.fr)

[14] David Gaborieau, « Le logiciel qui murmure à l’oreille des prolos », in David Gaborieau, Robin Mugnier et al. (dir.), Le Monde en pièces : Pour une critique de la gestion, t. 2, La Lenteur, 2019.

[15] Un ouvrage récent sur le sujet : Thomas Coutrot et Coralie Perez, Redonner du sens au travail : une aspiration révolutionnaire, Le Seuil, Coll. La République des Idées, 2022

[16] On pense notamment à la « coopération conflictuelle » telle qu’exposée par Yves Clot, Jean-Yves Bonnefond , Antoine Bonnemain et Mylene Zittoun dans leur ouvrage « Le prix du travail bien fait: La coopération conflictuelle dans les organisations », La Découverte, 2021.

[17] « En catimini, Saint-Denis achète un logiciel de surveillance algorithmique », Clément Le Foll, Médiapart, 30 juillet 2024.

[18] « Loi JO : refusons la surveillance biométrique », La Quadrature du Net https://www.laquadrature.net/biometrie-jo/

[19] « Bercy programme la mort de la Commission nationale du débat public, avant de rétropédaler », La Lettre, 02 avril 2024.

[20] Voir https://www.vie-publique.fr/discours/294258-emmanuel-macron-21052024-intelligence-artificielle

[21] Pour une revue plus exhaustive des forces et faiblesses de l’IA Act, voir Manuel Wörsdörfer, « Mitigating the adverse effects of AI with the European Union’s artificial intelligence act: Hype or hope? », Global business and organizational excellence, Volume 43, Issue 3, p. 106-126, 2024.

[22] « Entretien avec Antoinette Rouvroy : big data et IA, une manière de ne pas gouverner ? », Mathilde Saliou, Next, 26 juin 2024.

[23] « La retouche de photos par IA du Google Pixel 9 impressionne et inquiète », Nicolas Six, Le Monde, 22 août 2024.

[24] Voir https://airisk.mit.edu/

[25] Voir https://www.elysee.fr/sommet-pour-l-action-sur-l-ia

S’abonner
Notifier de
guest
0 Commentaires
Inline Feedbacks
View all comments