Un rapport met en garde contre les « robots tueurs »

Dans une nouvelle publiée dans les années 1940, l’auteur de science-fiction Isaac Asimov avait établi une loi de la robotique en 3 points. Le premier est qu’un robot, doté d’une intelligence artificielle ne peut porter atteinte à un être humain. Le second est qu’il doit obéir aux ordres, sauf si ces derniers entrent en conflit avec la première régle. Enfn, le troisième précise qu’il doit assurer sa protection dans les limites des deux précédents articles.

Au cours de ces dernières années, la robotique a connu d’énormes progrès. Les machines ne sont plus cantonnées à des tâches répétitives sur une chaîne de montage de voiture : elles vont maintenant sur le champ de bataille pour assister les combattants, comme par exemple pour des opérations de déminage afin d’éviter d’exposer la vie des sapeurs ou encore pour des missions de reconnaissance et de surveillance.

Parallèlement à cela, des systèmes d’armes évoluent vers davantage d’automatisation. C’est le cas de l’Iron Dome israélien, qui peut décider de détruire une roquette en vol en fonction de sa dangerosité, et cela, sans intervention humaine, ou encore du MK Phalanx de la marine américaine.

Aussi, un rapport, établi par l’organisation non gouvernementale (ONG) Human Rights Watch et la Harvard Law School International Human Rights Clinic, met en garde contre l’avènement de « robots tueurs », qui seraient totalement autonomes et qui décideraient d’eux-même les cibles qu’ils devraient éliminer.

Ce type de machine, précise le document, pourrait être développé dans les 20 ou 30 ans qui viennent, voire même plus tôt. Déjà, en Corée du Sud, un robot sentinelle conçu par Samsung et doté de deux caméras ainsi que d’une arme de calibre 5,5 mm, est en mesure de détecter des intrus et de faire des sommations. L’ordre de tirer doit cependant lui être donné par un humain.

Autre exemple, aux Etats-Unis, le projet X-47B vise à developper un UCAV (Unmanned Combat Air Vehicle), c’est à dire un drone de combat, capable de réaliser des missions en toute autonomie après avoir décollé d’un porte-avions.

Pour le moment, l’on en est pas encore dans une situation telle que l’a décrite Philip K. Dick, un autre auteur d’anticipation, dans l’une de ses nouvelles. « Nouveau modèle », décrit des soldats en chair et en os aux prises avec des robots (voir le recueil Minority Report). Mais selon Steve Goose, le directeur de la division « armes » de Human Rights Watch, « un certain nombre de gouvernements, dont les Etats-Unis, ont hâte d’aller dans cette direction, de mettre les machines sur le champ de bataille et de réduire ainsi les pertes humaines. »

D’où l’appel lancé par l’ONG et quelques intellectuels, dont le prix Nobel de la pais 1997, Jody Williams, à interdire préventivement le « développement et la production » de tels systèmes afin de prévenir un « cauchemar éthique. »

Professeur de robotique à l’Université de Sheffield, Noel Sharkey a soulevé le problème de la responsabilité, lié à « remise du pouvoir de décision » à des machines. « Si un robot fait une erreur, qui sera responsable? Ce ne sera certainement pas le robot » a-t-il plaidé, d’après l’AFP. Et s’il « prend une balle dans son ordinateur et qu’il se déchaîne? Il n’y a donc aucun moyen de vraiment savoir qui est responsable, ce qui est très important pour les lois de la guerre » a-t-il ajouté.

C’est d’ailleurs la question que soulève le rapport. « Ces armes autonomes ne pourraient pas satisfaire les critères imposés par le droit international humanitaire », y est-il souligné, d’autant plus que leur utilisation « créerait un vide juridique en matière de responsabilité. »

Dans un livre récemment publié aux éditions Economica, « Guerre Robotisée (la)« , le général Michel Yakovleff, a apporté un début de réponse aux problèmes soulevés par HRW.

Après avoir établi un parrallèle avec l’emploi des animaux (« un maître-chien reste responsable de son chien » écrit-il), le général Yakovleff pose la question de savoir « comment concilier l’autonomie décisionnelle de machines avec la nécessaire responsabilité de leurs maîtres?. » La réponse doit se fonder, justement, sur les lois de la robotique définies par Isaac Asimov.

« Quelle que soit la complexité des algorithmes qui détermineront le comportement des robots, la responsabilité humaine restera pleinement engagée, au moins à trois niveaux : le concepteur et notamment celui qui a orienté l’intelligence artificielle; le chef tactique, qui a décidé de la mission de l’unité engagée et fixé les limites (dont les règles d’engagement qui s’enrichiront forcément d’alinés dédiés aux robots); le maître du robot proprement dit, celui qui est relié et qui le commande directement » explique-t-il. Et d’ajouter : « La formation d’une unité ‘robotisée’ ne pourra faire l’abstraction d’un vaste volet de formation éthique, explorant les limites morales d’emploi de ces appareils. »

Conformément à l'article 38 de la Loi 78-17 du 6 janvier 1978 modifiée, vous disposez d'un droit d'accès, de modification, de rectification et de suppression des données vous concernant. [Voir les règles de confidentialité]