Les Nations unies se penchent sur le cas des robots soldats
Qu’est-ce qu’un robot? Le Larousse en donne la définition suivante : « Appareil automatique capable de manipuler des objets ou d’exécuter des opérations selon un programme fixe, modifiable ou adaptable ». Il s’agit-là de bien préciser l’enjeu des travaux de la Convention des Nations unies sur l’interdiction des armes inhumaines, qui se tient jusqu’au 16 mai à Genève.
Ce n’est pas encore évident pour tout le monde mais, par exemple, un drone comme le MQ-9 Reaper, dont il est souvent question quand des groupes jihadistes sont la cible de frappes aériennes dans les zones tribales pakistanaises ou au Yémen, ne sont pas des robots dans la mesure où ils sont pilotés à distance et que la décision de lâcher un missile Hellfire revient à son opérateur. Si un tel engin était autonome, c’est à dire programmé pour effectuer certaines tâches (par exemple larguer une bombe quand il repère des barbus, qu’ils soient d’al-Qaïda ou des ZZ Top), alors le cas serait différent.
Les militaires ont de plus en plus recours à des robots, notamment pour effectuer des tâches logistiques ou bien des missions de déminage. Cette tendance risque de s’accentuer dans les années qui viennent, à cause, selon un récent rapport du Center for a New American Security (CNAS), un centre de réflexion américain, de l’augmentation du coût des systèmes de combats « habités » et de la compression des budgets militaires occidentaux (avec les déflations d’effectifs à la clé).
D’où la possible tentation d’une fuite en avant dans ce domaine. « Les véhicules aériens et terrestres téléguidés seront bientôt remplacés par des systèmes plus autonomes dans tous les domaines (air, mer, marins, terrestres et spatiales) et dans toute la gamme des opérations militaires », est-il estimé dans le document du CNAS. « Les Etats-Unis auront recours à ces systèmes par nécessité opérationnelle et aussi parce que les frais de personnel et de développement des plates-formes traditionnelles de combat avec équipage augmentent à un rythme insoutenable », y est-il écrit.
Sera-t-il question, dès lors, de robots soldats, comme ceux annoncés par certains auteurs de science-fiction? L’on n’en est pas encore là mais, toutefois, des systèmes autonomes existent déjà, comme l’Iron Dome israélien, capable de discriminer et de détruire de manière autonome des roquettes en fonction de leur dangerosité. Idem pour le MK Phalanx américain. En Corée du Sud, Samsung a développé le robot « Sentinella », capable de détecter la présence d’intrus et de leur faire des sommations. Mais l’ordre de tir doit lui être donné par un homme.
Cela étant, un robot « tueur » contreviendrait aux règles de la robotique énoncées par Isaac Asimov (1- un robot, doté d’une intelligence artificielle ne peut porter atteinte à un être humain. 2- il doit obéir aux ordres, sauf si ces derniers entrent en conflit avec la première régle)… Mais ces dernières ne constituent pas une garantie absolue. D’où la conférence des Nations unies, qui abordera les questions juridiques et éthiques liées à l’utilisation de telles machines sur un champ de bataille. Utilisation contre laquelle plusieurs voix se sont élevées.
Prix Nobel de la Paix en 1997, Jody Williams milite pour l’interdiction de ces robots « tueurs ». « Il est inconcevable que l’être humain transfère la décision de tuer à des machines », estime-t-elle. Le directeur de Human Right Watch, qui a diffusé un rapport en novembre 2012 sur ce sujet, a quant à lui dit espérer un « début de processus » qui « aboutira à l’adoption d’un nouveau traité international interdisant ces armes ».
« Le jugement humain reste indispensable pour toute décision concernant le recours à une arme mortelle », qu' »il s’agisse d’une situation de guerre ou d’application de la loi », a-t-il aussi affirmé. « Les gouvernements doivent les interdire préventivement dès maintenant, avant qu’il ne soit trop tard », a-t-il ajouté
Le Comité international de la Croix-Rouge (CICR) soulève « les implications profondes des armes entièrement autonomes pour le futur de la guerre » et a demandé aux gouvernements « d’examiner tous les aspects juridiques de ces armes pour être sûrs qu’elles soient utilisées en accord avec le droit international humanitaire ».
« De sérieuses inquiétudes existent sur le fait de savoir si les armes entièrement autonomes peuvent procéder à des jugements complexes et dépendant des circonstances, par exemple distinguer entre un civil et un combattant, ou annuler une attaque ayant des effets disproportionnés sur les civils », a ainsi fait expliqué Kathleen Lawand, chef de la division armement du CICR.
Sur la question de la responsabilité de l’emploi de telles armes, le général Yakovleff a apporté un début de réponse dans son livre « La guerre robotisée » (Economica) en se fondant sur les lois de la robotique d’Asimov.
« Quelle que soit la complexité des algorithmes qui détermineront le comportement des robots, la responsabilité humaine restera pleinement engagée, au moins à trois niveaux : le concepteur et notamment celui qui a orienté l’intelligence artificielle; le chef tactique, qui a décidé de la mission de l’unité engagée et fixé les limites (dont les règles d’engagement qui s’enrichiront forcément d’alinés dédiés aux robots); le maître du robot proprement dit, celui qui est relié et qui le commande directement », a-t-il écrit.