Le Pentagone adopte des principes éthiques pour le recours à l’intelligence artificielle à des fins militaires

En juillet 2015, un collectif de scientifiques, d’ingénieurs et d’entrepreneurs signèrent une pétition pour exiger l’interdiction des armes létales autonomes [c’est à dire des « robots tueurs »], dont la mise au point leur paraissait alors inéluctable avec les progrès réalisés dans les domaines de la robotique et de l’intelligence artificielle.

Plusieurs éléments peuvent justifier les craintes exprimées dans cette pétition. L’accumulation des connaissances accélère le progrès technologique, ce qui permet d’accroître encore le savoir. Et ainsi de suite. C’est que le futurologue Ray Kurzweil a théorisé dans sa loi dite du « retour accéléré ». Ce qui fait que les avancées en matière d’électronique, d’intelligence artificielle ou encore de nanotechnologies changeront, à un moment ou à un autre, la faon de concevoir la guerre.

En outre, les états-majors sont susceptibles d’être intéressés par de tels systèmes d’armes autonomes [ou SALA] : leur mise au point serait, in fine, moins coûteuse que les systèmes « habités » et ils permettraient de limiter les pertes humaines sur le champ de bataille tout en rendant moins critique la nécessité de recruter de nouveaux soldats.

« Les États-Unis auront recours à ces systèmes par nécessité opérationnelle et aussi parce que les frais de personnel et de développement des plates-formes traditionnelles de combat avec équipage augmentent à un rythme insoutenable », avait d’ailleurs prophétisé le Center for a New American Security [CNAS].

En outre, les digues éthiques, qui, basées sur les lois de la robotique édictées par l’écrivain Isaac Asimov, empêcheraient de franchir le pas ne sont pas forcément très solides… En 2018, l’université sud-coréenne KAIST a été pointé du doigt pour avoir ouvert un laboratoire cherchant à utiliser l’intelligence artificielle pour mettre au point des « robots tueurs ». À noter que la Corée du Sud est déjà à la pointe dans ce domaine, après avoir déployé le Samsung Techwin SGR-A1 à la frontière avec le Nord.

Qui plus est, au niveau international, l’idée d’interdire, par un traité international, tout recours à des robots tueurs ne fait pas consensus. La réunion du Groupe des experts gouvernementaux sur les systèmes d’armes létales autonomes des Nations unies [GGE-LAWS] l’a démontré, en avril 2018.

Ainsi, la Russie, qui met au point des robots armés, comme le Nerekhta [qui serait autonome, ndlr], s’y oppose fermement. Et cela d’autant plus que le chef du Kremlin, Vladimir Poutine, estime que « celui qui maîtrisera l’intelligence artificielle dominera le monde ». Mais d’autres pays sont sur la même ligne, comme la Chine, les États-Unis ou encore la France.

En effet, pour Paris, « l’ouverture immédiate de négociations en vue d’un traité d’interdiction des « robots tueurs » ne serait pas la réponse pertinente » notamment parce qu’il « ne serait aujourd’hui pas opérant » dans la mesure où « il ne serait selon toute vraisemblance pas ratifié par les principales puissances ayant la capacité industrielle et technologique de développer des systèmes de ce type. »

Cependant, la ministre française des Armées, Florence Parly, a d’ores et déjà prévenu : « Terminator ne défilera pas sur au 14-Juillet ». En clair, il n’est pas question pour Paris de développer des robots tueurs totalement autonomes.

« La France refuse de confier la décision de vie ou de mort à une machine qui agirait de façon pleinement autonome et échapperait à tout contrôle humain. […] Nous développerons l’intelligence artificielle de défense selon trois grands principes : le respect du droit international, le maintien d’un contrôle humain suffisant, et la permanence de la responsabilité du commandement », avait expliqué Mme Parly, en avril 2019.

Et, depuis, le ministère des Armées a défini un cadre juridique et éthique en matière d’intelligence artificielle de défense [.pdf]. Et ce dernier reprend les 11 « principes directeurs » pour encadrer le développement et l’usage des systèmes d’armes autonomes auxquels la France a donné son consentement, comme, du reste, la Russie et les États-Unis.

Mais les applications de l’intelligence artificielle ne se limite pas aux robots tueurs. Cette technologie peut en effet utilisée dans l’aide à la décision, le renseignement, la cyberdéfense ou encore le maintien en condition opérationnelle des équipements.

Ce, qui dans certains domaines, peut susciter des réticences, comme l’a montré le retrait de Google du projet MAVEN, qui visait à permettre aux forces américaines de développer des applications d’intelligence artificielle pour analyser des images collectées par des drones afin de mieux distinguer les humains des objets.

Justement, pour éviter que cela se reproduise, le Pentagone vient d’adopter cinq principes « éthiques » pour l’usage de l’intelligence artificielle des fins militaires. Et cela, à l’issue d’une consultation ayant sollicité, durant 15 mois, des représentants des entreprises technologiques américaines ainsi que des grands centres de recherche. Les travaux ont été dirigés par Eric Schmidt, l »ancien président du conseil d’administration de Google qui est actuellement à la tête du Defense Innovation Board.

« L’intelligence artificielle changera beaucoup de choses sur le champ de bataille du futur, mais rien ne fera changer l’engagement inébranlable de l’Amérique à se comporter de façon responsable et légale », a fait valoir Mark Esper, le secrétaire américain à la Défense.

Ainsi, selon ces principes, le Pentagone s’engage à recourir à l’intelligence artificielle pour des usages « explicites et bien définis ». Son personnel devra rester « responsable » du développement, du déploiement et de l’utilisation des capacités que permet cette technologie. Les systèmes concernés devront être « fiables », avec des « spécifications transparentes ». Et ils pourront être désactivés en cas de mauvais fonctionnement.

Reste à voir si cela suffira pour convaincre les plus sceptiques. « Si nous avions eu les principes éthiques sur l’intelligence artificielle il y a trois ans [pour le programme MAVEN, ndlr] et si nous avions été transparents sur ce que nous tentions de faire, peut-être que le résultat aurait été différent », a estimé le général Jack Shanahan, responsable de l’intelligence artificielle au Pentagone.

« Mes conversations avec nos alliés et partenaires en Europe révèlent que nous avons beaucoup en commun concernant les principes relatifs à l’utilisation éthique et sûre de l’intelligence artificielle dans les opérations militaires. […] Cela contraste fortement avec la Russie et la Chine, pays où l’utilisation de la technologie de l’IA à des fins militaires soulève de sérieuses préoccupations concernant les droits de l’homme, l’éthique et les normes internationales », a encore fait valoir le général Shanahan.

Conformément à l'article 38 de la Loi 78-17 du 6 janvier 1978 modifiée, vous disposez d'un droit d'accès, de modification, de rectification et de suppression des données vous concernant. [Voir les règles de confidentialité]