Mme Parly fixe le cadre éthique pour l’utilisation de l’intelligence artificielle par les forces françaises

Dans sa nouvelle « Second Variety » [ou « Nouveau modèle » en français], l’écrivain américain de science-fiction Philip K Dick décrit des soldats humains face à des robots de combat qui, appelés les « griffes », sont d’une efficacité implacable. Au point d’évoluer par eux-mêmes pour prendre une apparence humaine. Si une telle situation devait arriver un jour, alors la France n’y sera pour rien. « Terminator ne défilera pas au 14 Juillet » a résumé Florence Parly, la ministre des Armées, lors d’un discours sur l’intelligence artificielle [IA] prononcé sur le campus de Saclay, en région parisienne.

Beaucoup de scientifiques, de dirigeants d’entreprises technologiques et d’ONG s’inquiètent des possibilités qu’offre l’intelligence artificielle dans le domaine militaire. D’où leurs actions pour interdire la mise au point de « robots tueurs autonomes », qui prendrait la décision de tuer de leur propre chef.

Certes, il existe les lois de la robotique, définies par Isaac Asimov, un autre écrivain d’anticipation de premier plan. Ces dernières disent, en substance, qu’un « , doté d’une intelligence artificielle ne peut porter atteinte à un être humain » et qu’il « doit obéir aux ordres, sauf si ces derniers entrent en conflit avec la première régle. » Seulement, rien de dit qu’elles seront toujours respectées. Et certains estiment que cette autonomisation de machines tueuses est inéluctable. D’ailleurs, l’université KAIST, en Corée du Sud, a récemment été accusée de s’engager dans une telle voie.

D’où la mise au point de Mme Parly. « Nous ne pouvons pas écarter le risque que de telles armes puissent être développées, un jour, par des États irresponsables et tomber entre les mains d’acteurs non-étatiques. La nécessité de dégager un consensus robuste avec tous les autres États du monde n’en est donc que plus impérieuse », a-t-elle d’abord souligné.

Cela étant, a-t-elle rappelé, la position française ne souffre d’aucune ambigüité. « La France refuse de confier la décision de vie ou de mort à une machine qui agirait de façon pleinement autonome et échapperait à tout contrôle humain », a insisté la ministre. Et de préciser : « Nous développerons l’intelligence artificielle de défense selon trois grands principes : le respect du droit international, le maintien d’un contrôle humain suffisant, et la permanence de la responsabilité du commandement. »

Ainsi, a poursuivi Mme Parly, il n’est pas question que l’intelligence artificielle, pour laquelle le ministère des Armées va investir 100 millions d’euros par an entre 2019 et 2025 recruter jusqu’à 200 experts, fasse bouger les « lignes rouges tracées par les principes du droit humanitaire international et le droit des conflits armés », dont « la proportionnalité de la réponse, la discrimination entre combattant et non-combattants, la minimisation des dommages collatéraux. »

« Au contraire, a plaidé la ministre, l’intelligence artificielle nous permettra de continuer à les respecter dans les conflits de demain. » Et, désormais, l’examen de « licéité » de chaque nouvel armement sera renforcé afin de garantir sa conformité au droit international.

« Quel que soit le degré d’automatisation, voire d’autonomie de nos systèmes d’armes actuels et futurs, ceux-ci resteront subordonnés au commandement humain. Cela suppose que l’homme définisse et valide leurs règles de fonctionnement, leurs règles d’emploi et leurs règles d’engagement. Cela suppose qu’il exerce un contrôle suffisant sur les systèmes déployés », a expliqué Mme Parly.

Pour enfoncer le clou, la ministre a annoncé la création d’un « comité d’éthique ministériel sur les sujets de défense », lequel sera « un outil d’aide à la décision et à l’anticipation ».

Ce comité « aura vocation à traiter en premier lieu des questions posées par les technologies émergentes et leur emploi par l’homme dans le domaine de la défense. Mais au-delà, les interrogations éthiques multiples liées à l’évolution du métier des armes ainsi que des espaces de conflictualité pourront lui être soumis », a énoncé Mme Parly.

Devant être mis en place d’ici quelques mois, ce comité d’éthique confrontera la réflexion éthique des « hommes et des femmes du ministère [des Armées] à celle de personnalités extérieures puisant à diverses sources de réflexion : les sciences, la philosophie, le droit ou bien encore l’histoire », a précisé la ministre.

Ainsi, a-t-elle ajouté, la « France sera la première grande puissance militaire à se doter d’une structure de réflexion permanente sur les enjeux éthiques des nouvelles technologies dans le domaine de la défense, et se placera ainsi à la pointe de cette réflexion au niveau international. »

Pour rappel, le groupe français Thales, qui a investi 7 milliards d’euros dans les domaines de la connectivité, du big data, de la cybersécurité et de l’intelligence artificielle depuis 2014, s’est résolument dit opposé à l’idée de doter des robots tueurs d’une intelligence artificielle. « Il faut que les pays mettent en place une législation au niveau international pour que le terrain de jeu soit clair pour tous » en ce qui concerne l’application de l’IA au domaine de l’armement », avait plaidé, en janvier, Patrice Caine, son Pdg.

Conformément à l'article 38 de la Loi 78-17 du 6 janvier 1978 modifiée, vous disposez d'un droit d'accès, de modification, de rectification et de suppression des données vous concernant. [Voir les règles de confidentialité]