Mais pourquoi veut-on automatiser la guerre avec des robots tueurs ?

En août 2017, l’entrepreneur Elon Musk (Tesla) et une centaine d’autres « leaders de l’intelligence artificielle » se fendaient d’une lettre ouverte aux Nations Unies réclamant l’interdiction des armes autonomes. Quelques mois plus tôt, la ministre des armées Florence Parly annonçait que la France armait ses drone « Reaper » (de fabrication américaine), relançant le débat autour de l’autonomisation progressive du matériel militaire. Mais derrière le mythe du robot tueur échappant au contrôle humain, c’est un terreau historique plus profond qu’il convient d’étudier. D’où vient cette irrépressible injonction à l’automatisation de la guerre ? Une question qu’aborde Eric Martel, chercheur associé au LIRSA (CNAM), dans son ouvrage Robots tueurs, la guerre déshumanisée, les robots autonomes visent zéro morts. Entretien.

Qu’entend-on exactement par « robot tueurs » ?

Les robots tueurs sont des robots qui disposent d’effecteurs létaux, ils sont aptes à prendre des décisions en toute autonomie – notamment grâce aux techniques d’intelligence artificielle – comme par exemple déclencher un tir ou détruire une cible. En cela, ils ne se contentent pas de réagir à un stimulus, même si la limite entre réaction et autonomie complète est parfois ténue… Ces robots disposent de plusieurs degrés d’automatisation, les Coréens et les Israéliens utilisent par exemple des sentinelles terrestres comme le Guardium, qui peut être autonome ou télé-opéré. Historiquement, il y a aussi bien sûr les systèmes anti-aériens qui réagissent lorsqu’ils détectent un objet dans leurs champs de vision, les considérant systématiquement hostiles. Cependant, un robot tueur réellement évolué est en mesure de sélectionner sa cible sur la base de plus de critères. En fait, si l’on reprend l’histoire de l’automatisation de la guerre, on se rend compte que la distinction entre des systèmes automatiques idiots et des systèmes autonomes intelligents est récente.

Comment apparaissent ces robots tueurs ?

Avec le AA predictor, un système antiaérien imaginé par Wiener pendant la seconde Guerre Mondiale et qui est l’ancêtre de tous les robots intelligents. On note aussi le fameux projet SAGE qui dans les années cinquante aux Etats-Unis, mobilisa trois fois le budget de la bombe atomique pour mettre en place un système de réponse automatique à une attaque soviétique, via l’envoi d’instructions à des bombardiers qui partiraient aussitôt. On part alors du principe qu’un système humain n’a pas la vitesse suffisante pour enclencher de telles actions synchronisées.

Les armées utilisent-elles des robots tueurs aujourd’hui ?

Il faut rester prudent. Si les robots tueurs existent déjà, il y a encore une énorme hésitation à s’en servir. Pour revenir sur les israéliens, personne ne peut réellement dire s’ils utilisent leur Guardium de façon autonome. Il en va de même pour la Russie qui cultive les effets d’annonce, à les entendre, ils auraient déjà des robots tueurs opérationnels. C’est difficile à vérifier. Aux Etats-Unis, par contre, on a vu l’armée transformer un Boeing autonome destiné aux bombardements en avion de ravitaillement…

Pourquoi ces hésitations ?

Il y a plusieurs raisons à cela. A l’international, on a assisté ces dernières années aux campagnes de sensibilisation issues d’organismes tels que Stop Killer Robots ou encore Future of Life. Des spots publicitaires très élaborés ont été réalisés, mettant notamment en scène des mini-drones autonomes très proches de ceux qu’on peut trouver dans le commerce, tirant sur tout ce qui bouge grâce à la reconnaissance faciale. Il faut garder à l’esprit que ces films très futuristes mettent en scène des technologies encore totalement hors de portée tels que des engins aptes à reconnaître sans faire d’erreurs les visages d’individus en mouvement. Avec les robots tueurs, on se préoccupe souvent de technologies d’avant garde, mais il ne faut pas oublier que des systèmes soit disant matures comme les drones pilotés à distance sont encore loin de fonctionner de façon optimale. En dehors de leurs pannes fréquentes, de leurs difficultés à décoller et à atterrir, la vision d’une caméra d’un drone de combat est loin d’égaler celle d’un pilote, contrairement à ce que peuvent laisser entendre certains écrits et films, comme par exemple Good Kill.

Le spot de https://autonomousweapons.org/

Justement, les drones sont souvent mis sur le devant de la scène… Lors de son annonce, Florence Parly se voulait rassurante en expliquant que les robots tueurs « ne sont pas d’actualité ». Mais préfigurent-ils une guerre totalement automatisée ?

Manifestement, la France suit aveuglément la doctrine américaine, ce qui pose un certain nombre de questions éthiques. Chez les militaires, c’est une zone encoure floue. D’un côté, on refuse de voir ces engins sur le champ de bataille. Dans la réalité certains engins « pilotés à distance » sont déjà très automatisés. Concrètement, si vous êtes deux à surveiller un drone, ce n’est pas comme si vous étiez seul à en surveiller trois, dans ce dernier cas, vous déléguez plus à la machine. Ensuite, il y a une confiance démesurée placée dans ces outils : les opérateurs ont tendance à considérer qu’ils sont capables de faire vite et mieux qu’eux, ce qui est en partie vrai mais pas sans risque, comme l’a montré l’accident de l’USS Vincennes en 1988 (opération en Iran au cours de laquelle 290 passagers d’un vol civil furent tués suite à une erreur américaine). Mais clairement, quand on voit l’arrivée des drones, il y a une forme de continuité : faire les choses à distance, c’est aller vers plus d’autonomie, comme le disait lui-même Marvin Minsky l’un des fondateurs de l’intelligence artificielle.

La tendance n’est pas nouvelle. Au Vietnam, les américains envoyèrent un millier de drones sur le terrain et en perdirent la moitié… Cela ne les a pas empêché de poursuivre. Les premiers drones Predator avaient un taux de panne faramineux. Mais le rêve d’opérer à distance alliée à une automatisation absolue était trop fort. Ainsi, en Afghanistan un drone Predator a tiré des missiles sur une cible en se guidant sur un numéro de téléphone, le problème étant que le numéro n’était pas le bon.

Dans votre ouvrage, vous soulignez l’importance de la guerre du Vietnam, en quoi a-t-elle structuré cette idée d’automatiser le conflit ?

Plus encore que la seconde guerre mondiale, la guerre du Vietnam est la véritable matrice de la guerre moderne. C’est à ce moment là que les américains ont commencé à déléguer du pouvoir aux machines et aux données récoltées par des dispositifs électroniques. Lors de l’opération Igloo White, 10 000 capteurs furent largués dans la jungle pour récolter différents signaux interprétés par un ordinateur central en Thaïlande. Concrètement, ces capteurs détectaient certains bruits et l’odeur d’urine, l’ordinateur central les interprétait et si nécessaire envoyait automatiquement des bombardiers. Pourtant cette première automatisation de la guerre fut un échec complet. Cela ne les a pas empêché de poursuivre. Il y a eut une mauvaise compréhension de cette défaite militaire. Pour les américains, celle-ci est liée au nombre de morts dans leur camp, et à l’opposition politique liée à ces morts. De là vient cette logique de mise à distance de la guerre. D’habitude, une armée qui perd un conflit devient redoutable par la suite car elle tire les leçons de son échec. Les Etats-Unis n’ont pas du tout tiré les bonnes leçons de la guerre Vietnam. Ils ont compris que si on réduit le nombre de victimes dans son camp à zéro, on sera alors à peu près libre de faire ce qu’on veut. On se retrouve aujourd’hui avec une situation proche du 19ème siècle avec des pays occidentaux constamment en guerre dans des pays lointains sans que cela ne crée beaucoup d’émoi chez soi. La guerre d’Afghanistan va ainsi entrer dans sa 18ème année.

Concrètement, quels sont les défis éthiques auxquels font aujourd’hui face les robots autonomes ?

Il y a deux approches. La première, erronée selon moi est juridique : une guerre automatisée pourra-t-elle respecter le Droit International Humanitaire (DIH) qui demande notamment à ce qu’on puisse discriminer les cibles, faire la différence entre un civil et un soldat ? A ce niveau, d’énormes progrès sont à faire, si les systèmes pourraient – à la limite – reconnaître un soldat qui lève les deux bras, ne pas confondre un uniforme est beaucoup plus incertain. On ne sait pas non plus dire si une personne tient un fusil, un bâton ou un balai. Par ailleurs, laisser une machine faire des jugements juridiques (tuer ou ne pas tuer) est problématique. Dans le cas d’un humain, on peut toujours se dire qu’il sait ce qu’il a fait : en dehors des 1 ou 2% de fous furieux, les hommes ne sont pas portés sur le meurtre. Pendant la seconde guerre mondiale, on a montré que 1% des pilotes américains étaient responsables de 40% des avions ennemis abattus, et seulement 19% des soldats américains en situation d’engagement ont fait usage de leur arme. On peut bien sûr imaginer, comme le fait Ronald C. Arkin, qu’un jour, il sera possible de faire entrer les règles juridiques de la guerre dans les machines, mais la guerre, ce n’est pas noir ou blanc, rien n’est évident ni clair dans la guerre.

L’autre approche est philosophique, c’est la question de la responsabilité. Même si on se projette dans le cas d’une machine capable de discriminer correctement une cible, seul un être humain peut être tenu responsable de ses actes. On ne peut pas juger une machine. On objectera, certes, que l’on peut toujours juger le concepteur, mais dans la réalité c’est impossible ; ces machines sont conçues pour s’adapter, fonctionner en groupe… Un robot tueur n’est pas un robot d’usine et la guerre est pleine d’interactions, c’est la loi de Murphy puissance dix mille : rien n’arrive jamais comme prévu. Tant que vous faites des exercices ou des simulations, tout va bien, c’est lorsqu’apparaît l’ennemi que tout se complique et devient insaisissable. Pour faire simple, confier la mort d’un être humain à une machine est tout sauf idéal, je rejoins en cela le philosophe Grégoire Chamayou (ndl : auteur de La théorie du drone) qui affirme qu’on ne peut pas mettre sur le même plan un homme et une machine.

Que pensez vous de l’affirmation selon laquelle le champ de bataille tend à disparaître ?

Il y a en effet tout un discours qui tend à montrer que la guerre pourrait changer totalement de perspective, que le champ de bataille disparaîtrait. Je suis extrêmement prudent concernant ces thèses. D’une part, que ce soit dans la littérature militaire ou ailleurs, il est toujours risqué d’extrapoler le futur en se basant sur les trente dernières années. Je ne suis pas convaincu par cette approche selon laquelle les guerres ne réapparaîtraient pas selon des schémas délimités. De la même manière, on relève souvent que les drones de combat floutent les frontières du champ de bataille, ça n’est pas nouveau, les opérations extra militaires ont toujours existé : les raids et les pillages avaient souvent lieu sans déclaration de guerre.

D’autre part, il faut savoir qu’une grande partie des thèses affirmant que la guerre a changé sont issues de Think-tank américains. Ces discours me font penser à ce qui a lieu dans le domaine des nouvelles technologies et dans le monde des startups depuis les années 2000 où on a nous a vanté l’arrivée d’une nouvelle économie.

Pourtant, on entend souvent que l’automatisation pourrait rendre la guerre « plus propre », dans la lignée des « frappes chirurgicales »… La guerre telle qu’on la connaît est-elle amenée à disparaître ?

Les frappes chirurgicales n’ont jamais réellement existé. Le taux d’erreur reste encore très important. Un certain discours nous laisse croire que la guerre se passe comme lors des essais en terrain balisé. C’est rarement le cas, entre les munitions qui ratent leur ciblent, tombent à côté, n’explosent pas ou dysfonctionnent pour diverses raisons, vous avez une marge d’erreur qui reste importante. Supposer que ces nouveaux engins automatiques vont fonctionner parfaitement relève d’une certaine naïveté, la guerre par définition n’est jamais propre. Penser que l’on pourrait laisser les machines se détruire entre elles et plus avoir de morts relève d’une illusion. Ce rêve d’une guerre automatisée pourrait n’être qu’une parenthèse, d’autant qu’elle repose sur des technologies qui ne sont pas aussi solides qu’on ne le laisse entendre.

A voir également : le débat du Mouton Numérique sur les drones de guerre

Drones armés : fin de la guerre ou guerre sans fin ?

Dans votre ouvrage, vous posez la question de la robustesse des systèmes automatisés

Ce qu’il faut savoir, c’est que toutes ces technologies sont très fragiles. Les robots tueurs fonctionnent sur des logiques de mise en réseau de systèmes qui sont coordonnés entre eux, mais une communication se brouille facilement. Les américains en ont fait l’amère expérience en 2011, quand un de leurs drones ultra sophistiqué, surnommé « The Beast », a été détourné et capturé par les Iraniens, une puissance militaire bien inférieure. Ils ont d’abord brouillé les communications radio : quand ce genre de problème survient, le drone rentre automatiquement à la base. Dans un deuxième temps, ils ont envoyé de faux signaux GPS et on fait atterrir le drone où ils le souhaitaient. L’engin a tout de même chuté de dix mètres à l’atterrissage car il croyait atterrir sur un aérodrome en Afghanistan, mais pas de quoi les empêcher de le désosser complètement.

En fait, on peut facilement détruire des robots tueurs autonomes avec des technologies des années cinquante… Autre exemple, les composants électroniques sont très sensibles aux impulsions électromagnétiques (IEM), les Etats-Unis, la Russie et la Chine travaillent sur des bombes classiques capables de générer ce type de phénomènes, des puissances moyennes comme l’Inde ou le Pakistan sont également en mesure de les réaliser. Pour contrer ces attaques, les américains travaillent sur des essaims de drones qui se coordonneraient par signaux infrarouges, seul problème, les essaims sont « trop autonomes » et leurs comportements difficiles à contrôler en situation de guerre, où rien ne se passe comme prévu.

Les essaims de drones autonomes sont donc une réalité ?

Comme l’explique un document de la Rand Corporation, les essaims de drones sont en mesure d’effectuer des missions en toute autonomie. Le MIT par exemple, a conçu le drone Perdix, qui s’imprime en 3D. En France, l’université Pierre et Marie Curie dispose d’une chaire d’excellence dans le domaine des « Mini-drones Autonomes ». Les essaims changent la manière de faire la guerre : le traditionnel système de vagues d’assauts peut être remplacé par des « pulsations », ces drones seraient capables de se reconfigurer comme le ferait une meute. On leur assignerait un objectif et ils décideraient eux-mêmes du schéma à adopter pour l’accomplir. Bien sûr, un nuage de ces petits engins produirait un effet psychologique important.

Une question qui se pose est celle de la réappropriation de ces technologies à des fins terroristes. A l’heure actuelle, ces robots sont encore difficiles à répliquer, l’Etat Islamique (EI) par exemple, ne dispose pas des compétences nécessaires. Cependant, cela reste à portée de puissances moyennes qui pourraient supporter une organisation terroriste. Concrètement, on pourrait imaginer des essaims de drones lancer des attaques indiscriminées contre un ennemi, par exemple en explosant au contact d’un objet vivant. Pour y faire face, l’armée américaine travaille sur des systèmes de destruction automatique d’essaims de drones, en Chine, une arme laser anti drones a été développée.

On sent qu’une nouvelle escalade est à l’œuvre, chaque pays essayant de devancer les autres dans l’autonomisation de ses armes. Faudrait-il s’armer de peur que les autres ne le fassent avant nous ?

C’est une question difficile. C’est vrai que dans les domaines aériens et maritimes, ce sera difficile de résister. Dans le domaine terrestre, il y a encore de la marge de manœuvre. La reconnaissance des formes y est plus difficile. Quand au « soldat augmenté », avec ses 45 kilos d’exosquelette qui semble sortir d’un film de science fiction, il ressemble beaucoup au chevalier du moyen âge, il ne risque pas d’aller faire la guerre du Vietnam et de crapahuter dans des tunnels avec une telle tenue. Par ailleurs, les systèmes automatiques cherchent les irrégularités statistiques, ils ne fonctionnent que par rapport a ce qui a déjà existé. Mais l’homme est capable de surprendre, de faire des associations improbables… La guerre restera toujours quelque chose de très rustique et à la fois très moderne, les terroristes ne manqueront pas de nous le rappeler. Il ne faut donc pas sombrer dans une forme de béatitude technologique, c’est un axe parmi d’autres.

S’abonner
Notifier de
guest
2 Commentaires
Inline Feedbacks
View all comments
trackback

[…] Mais pourquoi veut-on automatiser la guerre avec des robots tueurs ? […]

trackback

[…] par exemple, est profondément cybernétique. Les armes actuelles comme les drones et autres robots-tueurs tendent à devenir de plus en plus autonomes : elles préconisent de tuer non plus des hommes mais […]