Des chercheurs réclament l’interdiction des robots autonomes tueurs

robot-20140513

Ils sont chercheurs ou entrepreneurs, spécialistes de la robotique et de l’intelligence artificielle. Et leur crainte est de voir, avec les progrès accomplis dans ces domaines, arriver des robots capables de choisir une cible et de la détruire en toute autonomie, c’est à dire sans intervention humaine.

D’où la pétition pour interdire ces robots « tueurs » autonomes qu’ils ont lancée à l’occasion de l’International Joint Conferences on Artificial Intelligence (IJCAI), qui se tient à Buenos Aires jusqu’au 31 juillet. Parmi les signataires, l’on trouve l’astrophysicien britannique Stephen Hawking, qui en a fait son cheval de bataille, Elon Musk, le patron de Tesla et de SpaceX ou encore Steve Wozniak, le co-fondateur d’Apple.

« L’intelligence artificielle a atteint un point où le déploiement de tels systèmes sera – matériellement, si pas légalement – faisable d’ici quelques années, et non décennies, et les enjeux sont importants : les armes autonomes ont été décrites comme la troisième révolution dans les techniques de guerre, après la poudre à canon et les armes nucléaires », expliquent-ils. Et de craindre que cette évolution conduise à rejet de l’intelligence artificielle. Rejet « qui couperait court à tous ses bénéfices sociétaux futurs ».

Régulièrement, des organisations non gouvernementales (ONG) publient des rapports pour mettre en garde contre ces « robots tueurs ». Récemment, Human Rights Watch a ainsi mis en garde contre l’absence de responsabilité légale à l’égard de ces derniers. Les Nations unies ont aussi abordé ce sujet en 2014.

L’Académie des technologies a également fait part de son inquiétude vis à vis du développement de la robotique militaire et plaidé pour la « maîtrise de la mise en oeuvre » des robots militaires « à tous les niveaux, depuis la décision politique de développement de l’arme jusqu’à l’utilisation opérationnelle ».

Va-t-on pour autant vers ce type de robot? Il existe déjà des systèmes d’armes autonomes, comme l’Iron Dome israélien, capable de savoir s’il doit ou non détruire une roquette en fonction de l’endroit où elle est supposée tomber et donc de leur dangerosité.

Certes, la robotique est régie par des principes, énoncés par l’écrivain Isaac Asimov. Les deux premières indiquent ainsi qu’un « robot doté d’une intelligence artificielle ne peut porter atteinte à un être humain » et qu’il « doit obéir aux ordres, sauf si ces derniers entrent en conflit avec la première règle ». Mais, à vrai dire, ces règles ne sont pas une garantie absolue. Il suffit qu’un État les transgresse pour que d’autres suivent.

Pourquoi le ferait-il? Parce que les coûts de développement et d’utilisation des systèmes d’armes « habités » ne cessent d’augmenter alors que les budgets militaires sont contraints. Et aussi parce que le recours à des engins dotés d’intelligence artificielle (robot terrestre, drone aérien ou naval), qui plus est financièrement plus abordables, permettrait de limiter les pertes humaines dans son camp.

« Les Etats-Unis auront recours à ces systèmes par nécessité opérationnelle et aussi parce que les frais de personnel et de développement des plates-formes traditionnelles de combat avec équipage augmentent à un rythme insoutenable », estimait d’ailleurs Center for a New American Security (CNAS), dans un rapport sur la question.

Par ailleurs, sur le plan technologique, les progrès sont continus. C’est ce que Ray Kurzweil, le futurologue de Google, appelle la « loi du retour accéléré« .

Bref, cela veut-il que le champ de bataille de 2050 verra s’affronter des armées de robots et de drones autonomes? Le chef de l’US Air Force, le général Welsh, ne le pense pas. Même si le recours aux drones – même autonomes – va s’accroître, « le pilote de combat est irremplaçable », a-t-il en effet estimé en mai dernier. Et d’ajouter : « Avoir le cerveau humain pour ‘capteur’ dans le combat est toujours extrêmement important, à notre avis ».

Cependant, l’US Army Research Laboratory (ARL) pense que les robots seront bel et bien présents dans la bataille. Et il se pourrait même que les militaires aient un contrôle limité sur eux, avec la possibilité d’agir qu’en fonction de leur comportement programmé ou attendu, a-t-il estimé dans un rapport de prospective diffusé en juin.

Mais ce dernier insiste aussi sur la notion de « soldat augmenté », c’est à dire disposant de capacités améliorées grâce aux exosquelettes ou encore à des capteurs implantés pour accroître leurs performances cognitives. Voilà qui ouvre une autre question éthique, sans doute toute aussi importante que les robots tueurs…

Conformément à l'article 38 de la Loi 78-17 du 6 janvier 1978 modifiée, vous disposez d'un droit d'accès, de modification, de rectification et de suppression des données vous concernant. [Voir les règles de confidentialité]