Le Pentagone adopte des principes éthiques pour le recours à l’intelligence artificielle à des fins militaires
En juillet 2015, un collectif de scientifiques, d’ingénieurs et d’entrepreneurs signèrent une pétition pour exiger l’interdiction des armes létales autonomes [c’est à dire des « robots tueurs »], dont la mise au point leur paraissait alors inéluctable avec les progrès réalisés dans les domaines de la robotique et de l’intelligence artificielle.
Plusieurs éléments peuvent justifier les craintes exprimées dans cette pétition. L’accumulation des connaissances accélère le progrès technologique, ce qui permet d’accroître encore le savoir. Et ainsi de suite. C’est que le futurologue Ray Kurzweil a théorisé dans sa loi dite du « retour accéléré ». Ce qui fait que les avancées en matière d’électronique, d’intelligence artificielle ou encore de nanotechnologies changeront, à un moment ou à un autre, la faon de concevoir la guerre.
En outre, les états-majors sont susceptibles d’être intéressés par de tels systèmes d’armes autonomes [ou SALA] : leur mise au point serait, in fine, moins coûteuse que les systèmes « habités » et ils permettraient de limiter les pertes humaines sur le champ de bataille tout en rendant moins critique la nécessité de recruter de nouveaux soldats.
« Les États-Unis auront recours à ces systèmes par nécessité opérationnelle et aussi parce que les frais de personnel et de développement des plates-formes traditionnelles de combat avec équipage augmentent à un rythme insoutenable », avait d’ailleurs prophétisé le Center for a New American Security [CNAS].
En outre, les digues éthiques, qui, basées sur les lois de la robotique édictées par l’écrivain Isaac Asimov, empêcheraient de franchir le pas ne sont pas forcément très solides… En 2018, l’université sud-coréenne KAIST a été pointé du doigt pour avoir ouvert un laboratoire cherchant à utiliser l’intelligence artificielle pour mettre au point des « robots tueurs ». À noter que la Corée du Sud est déjà à la pointe dans ce domaine, après avoir déployé le Samsung Techwin SGR-A1 à la frontière avec le Nord.
Qui plus est, au niveau international, l’idée d’interdire, par un traité international, tout recours à des robots tueurs ne fait pas consensus. La réunion du Groupe des experts gouvernementaux sur les systèmes d’armes létales autonomes des Nations unies [GGE-LAWS] l’a démontré, en avril 2018.
Ainsi, la Russie, qui met au point des robots armés, comme le Nerekhta [qui serait autonome, ndlr], s’y oppose fermement. Et cela d’autant plus que le chef du Kremlin, Vladimir Poutine, estime que « celui qui maîtrisera l’intelligence artificielle dominera le monde ». Mais d’autres pays sont sur la même ligne, comme la Chine, les États-Unis ou encore la France.
En effet, pour Paris, « l’ouverture immédiate de négociations en vue d’un traité d’interdiction des « robots tueurs » ne serait pas la réponse pertinente » notamment parce qu’il « ne serait aujourd’hui pas opérant » dans la mesure où « il ne serait selon toute vraisemblance pas ratifié par les principales puissances ayant la capacité industrielle et technologique de développer des systèmes de ce type. »
Cependant, la ministre française des Armées, Florence Parly, a d’ores et déjà prévenu : « Terminator ne défilera pas sur au 14-Juillet ». En clair, il n’est pas question pour Paris de développer des robots tueurs totalement autonomes.
« La France refuse de confier la décision de vie ou de mort à une machine qui agirait de façon pleinement autonome et échapperait à tout contrôle humain. […] Nous développerons l’intelligence artificielle de défense selon trois grands principes : le respect du droit international, le maintien d’un contrôle humain suffisant, et la permanence de la responsabilité du commandement », avait expliqué Mme Parly, en avril 2019.
Et, depuis, le ministère des Armées a défini un cadre juridique et éthique en matière d’intelligence artificielle de défense [.pdf]. Et ce dernier reprend les 11 « principes directeurs » pour encadrer le développement et l’usage des systèmes d’armes autonomes auxquels la France a donné son consentement, comme, du reste, la Russie et les États-Unis.
Mais les applications de l’intelligence artificielle ne se limite pas aux robots tueurs. Cette technologie peut en effet utilisée dans l’aide à la décision, le renseignement, la cyberdéfense ou encore le maintien en condition opérationnelle des équipements.
Ce, qui dans certains domaines, peut susciter des réticences, comme l’a montré le retrait de Google du projet MAVEN, qui visait à permettre aux forces américaines de développer des applications d’intelligence artificielle pour analyser des images collectées par des drones afin de mieux distinguer les humains des objets.
Justement, pour éviter que cela se reproduise, le Pentagone vient d’adopter cinq principes « éthiques » pour l’usage de l’intelligence artificielle des fins militaires. Et cela, à l’issue d’une consultation ayant sollicité, durant 15 mois, des représentants des entreprises technologiques américaines ainsi que des grands centres de recherche. Les travaux ont été dirigés par Eric Schmidt, l »ancien président du conseil d’administration de Google qui est actuellement à la tête du Defense Innovation Board.
« L’intelligence artificielle changera beaucoup de choses sur le champ de bataille du futur, mais rien ne fera changer l’engagement inébranlable de l’Amérique à se comporter de façon responsable et légale », a fait valoir Mark Esper, le secrétaire américain à la Défense.
Ainsi, selon ces principes, le Pentagone s’engage à recourir à l’intelligence artificielle pour des usages « explicites et bien définis ». Son personnel devra rester « responsable » du développement, du déploiement et de l’utilisation des capacités que permet cette technologie. Les systèmes concernés devront être « fiables », avec des « spécifications transparentes ». Et ils pourront être désactivés en cas de mauvais fonctionnement.
Reste à voir si cela suffira pour convaincre les plus sceptiques. « Si nous avions eu les principes éthiques sur l’intelligence artificielle il y a trois ans [pour le programme MAVEN, ndlr] et si nous avions été transparents sur ce que nous tentions de faire, peut-être que le résultat aurait été différent », a estimé le général Jack Shanahan, responsable de l’intelligence artificielle au Pentagone.
« Mes conversations avec nos alliés et partenaires en Europe révèlent que nous avons beaucoup en commun concernant les principes relatifs à l’utilisation éthique et sûre de l’intelligence artificielle dans les opérations militaires. […] Cela contraste fortement avec la Russie et la Chine, pays où l’utilisation de la technologie de l’IA à des fins militaires soulève de sérieuses préoccupations concernant les droits de l’homme, l’éthique et les normes internationales », a encore fait valoir le général Shanahan.
 » L’intelligence artificielle changera beaucoup de choses sur le champ de bataille du futur, mais rien ne fera changer l’engagement inébranlable de l’Amérique à se comporter de façon responsable et légale », a fait valoir Mark Esper, le secrétaire américain à la Défense. »
Bien des gens, de par le monde, seraient heureux de voir enfin l’Amérique « se comporter de façon responsable et légale ». Que ce soit sur les théâtres d’opérations comme dans les relations diplomatiques en général.
On peut toujours rêver… Mais si Trump est réélu pour quatre ans, il faudra quand même patienter.
Je voulais commenter mais vous avez tout dit. merci! Placer dans une même phrase Pentagone et éthique, c’est « franchir le mur du çon » pour reprendre la rubrique d’un hebdo satirique bien connu!
C’est aussi au nom de l’éthique que Trump a autorisé l’emploi de mines anti-personnelles?.Il est vrai que les US, comme Russes et Chinois, n’avaient pas signé la Convention d’Ottawa,toujours au nom de l’éthique.
On va bientôt arrêter avec ces singeries?
-Si vis pacem para bellum-
.
Alors que l’on observe advenir une ère historique où il est précisément le temps de transformer les charrues en épées, dans la frénésie pacifiste de sa classe politique, la France se désarme au nom de l’éthique. Et je suppose que cela doit plaire aux types mal intentionnés comme vous. Il y a un certain temps, vous affirmiez dans le but de défendre la Russie qui bafoue les traités internationaux, que la France viole le FNI avec ses missiles nucléaires air-sol, ce qui, selon vous, justifierait le fait que les Russes construisent des missiles interdits par le traité. Ce commentaire est donc une suite logique de vos excès scandaleux.
Mais oui,mais oui!, »pacifiste anti-France »:bin tiens,il y a longtemps qu’on ne l’avait pas sortie celle là .Et votre « guide » Trump qui nous dit, que le péril est moins la Russie que la Chine et reproche même aux Européens de ne penser qu’au péril russe,vous en dites quoi?
Et puis, un « Trumpiste » qui accuse les Russes de bafouer les traités internationaux,c’est l’hôpital qui se fout de la charité,vous ne croyez pas?
PS:En quoi c’est scandaleux d’être agacé par l' »éthique » du Pentagone?
@Auguste
Il faut noter qu’en matière d’éthique et de mines les  » terroristes  » Houthis ont une longueur d’avance et leurs mines sont  » Ottawa compatibles  » dés le début . Elles peuvent discriminer la masse de l’humain se trouvant à proximité et être controlées par radio .
Les hautis fabriquent des mines équipées de detecteurs IR PIR couplés à un embryon d’IA sur carte Arduinoâ„¢
https://thedefensepost.com/2019/12/18/bahrain-ied-component-yemen-houthis/
https://www.youtube.com/watch?v=ZC_sEW3_694
@Auguste
Je ne sais pas si c’est un doublon , le 1er message ayant été bloqué par l’ IA de Chrome il y a quelques minutes …
Les premiers à avoir utilisé des mines  » éthiques  » ce sont les  » terroristes  » Houtis ! Elles sont doublement  » Ottawa compatibles « et cedepuis le début : Elles utilisent un capteur PIR discriminant la masse de barbaque se déplçanat à proximité , une radio-commande et maintenant des cartes Arduino™
https://thedefensepost.com/2019/12/18/bahrain-ied-component-yemen-houthis/
https://www.instructables.com/id/Arduino-Controlling-Multiple-PIR-Sensor-on-Same-Bo/
Les Houtis, comme d’autres qui les utilisent,ont la « délicatesse » de ne pas se présenter comme les champions de l' »éthique »
Qui sait peut être que les robots seront plus éthiques que les pilotes de drone US actuel.
@ Renard Gris
C’est parce qu’il y a une certaine automatisation des tirs que les frappes de drones font des dégâts (ça demande moins de ressources en renseignement).
https://youtu.be/dzCmhUAzseI
La guerre par les airs détruit, mais ne tient pas le terrain. Le politique peut s’enorgueillir de « faire quelque chose » et elle coûte très cher, donc rapporte à ceux qui la permettent :
http://lignesdedefense.blogs.ouest-france.fr/archive/2020/01/27/7423-missiles-et-bombes-tires-sur-des-cibles-afghanes-en-201-20837.html
Oui, l’éthique de la guerre m’a toujours vivement impressionné : destructions, tueries, blessures, brûlures, corps à corps, mauvais traitements, folie mentale, et maintenant quasi tout le temps, oppression des civils.
Et il faut bien constater que les militaires US ont toujours fait preuve d’éthique en Corée, au Vietnam, au Moyen Orient ou par leur organisation de coups d’états militaires en Amérique du Sud !
Et les USA sont un pays (parmi d’autres) qui s’implique très fortement, par obligation morale, dans tous les traités de limitation d’armement ou d’usage de la force.
L’IA, aura-t-elle un sens « intuitif » de la valeur de la vie humaine ??
Les lois de l’écrivain de science fiction Asimov :
Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ;
Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.
Inapplicable dans le domaine militaire … car il n’est pas éthique.
@Raymond,
Ne voulez-vous pas plutôt dire que la guerre est immorale?
(l’éthique est susceptible de s’appliquer à toute activité humaine: une simple lessive peut donner lieu à une réflexion éthique. On ne voit pas au nom de quoi exclure de son champ d’investigation le domaine militaire, éthique par excellence)
À mettre en lien avec la doctrine américaine sur le cyberespace, car il faut bien mettre en réseau ces engins :
https://cybertactique.blogspot.com/2019/07/le-cyber-dans-le-concept-doperations.html
En ce qui concerne la France :
https://vmf214.net/2019/07/05/experimentation-en-robotique-terrestre/
À noter que le contrat JEDI (10 milliards de dollars) entre le Pentagone et Microsoft est pour l’instant suspendu suite à une requête judiciaire d’Amazon.
https://www.silicon.fr/cloud-pentagone-jedi-amazon-repit-microsoft-334197.html
Plus on compte sur une technologie, plus il est intéressant pour l’ennemi de trouver la parade, en l’occurrence le piratage et le brouillage.
https://geointblog.wordpress.com/2019/02/05/comment-les-solutions-mobiles-transforment-les-operations-militaires/
Les forces américaines auraient perdu sept drones sans la réactivité de leurs soldats , 42 millions de dollars et toute capacités d’observation suite au bombardement iranien. De quoi faire phosphorer dans les etats-majors:
https://geointblog.wordpress.com/2019/02/05/comment-les-solutions-mobiles-transforment-les-operations-militaires/
Sans compter le mensonge de Trump sur l’absence totale de blessés américains de ce bombardement.
https://www.lefigaro.fr/flash-actu/raid-iranien-109-soldats-americains-blesses-20200211
Erreur sur le deuxième lien.
https://www.letelegramme.fr/monde/en-pleine-attaque-iranienne-l-armee-americaine-aveugle-sans-ses-drones-15-01-2020-12479224.php
ce premier démonstrateur s’appellera « sergent gallahger «Â
Le jour où la reconnaissance automatique d’un ennemi sera plus efficace qu’un humain pour éviter une bavure, il sera immoral de ne pas laisser juger l’IA à la place du soldat.
Très bonne remarque ! A une moindre échelle la question se pose pour les voitures autonomes.
« ..celui qui maîtrisera l’intelligence artificielle dominera le monde ».
Le dirigeant qui en veut toujours plus: « Oh grand ordinateur, donne moi le programme pour diriger le monde ».
« oui maitre, à partir des évènements, données, tactiques, et stratégies accumulées depuis qu’internet existe, que tous les livres existent, et de tous les jeux mmorpg « gratuits », j’aboutie à une série d’ordres et de comportements qui vont mettre 8 ans pour déstabiliser tous les adversaires, les ralentir, tromper et falsifier leurs données et leurs IA, puis 2 années de feinte, et enfin 8 mois de guerre totale pour un coût équivalent à 6 milliards de victimes humaines, une destruction de la biosphère à 33% et de la biodiversité de 80%, la planète mettra environ 4600 ans à s’en remettre; mais ensuite vous deviendrez le 1er empereur humain et aurait marqué votre espèce et la grande histoire à jamais ».
« Chiche », répond le grand politicien qui veut entrer dans l’histoire.
Pensez déjà à tous ces politiciens qui veulent une loi « à leur nom » parce qu’ils pensent qu’ils laisseront une trace.
A notre époque, on tue ceux qui ne se font pas assez remarquer, il arrivera un jour où on tuera ceux qui se font remarquer.
D’ici là la compétition( ceux qui veulent se faire remarquer) continuera jusqu’à ce que le mâle alpha humain soit trouvé. Ensuite seulement on aura la paix, pour au moins des centaines de générations.
Cela « va » arriver, que le monde s’unifie dans la paix ou la guerre, cela va arriver, c’est à nous de choisir la forme. Une fois trouvé, le réchauffement cessera, on aura un âge d’or et le refroidissement global commencera avec une nouvelle ère glaciaire, vous pensez vous battre pour des pays des religions des idées, erreur, vous vous battez pour un type qui s’est autodéclaré chef contre d’autres chefs, et le plus tenace gagnera; c’est cela l’origine de notre évolution, cette pulsion de vie, de vouloir gagner, rester debout, de ne pas vouloir dormir, attendre, ou se cacher. Et vraissemblablement si la guerre est choisie pour l’unification de l’humanité, l’empereur du monde( le soleil au zénith) fera tuer tous les hommes( par ses machines), pour s’approprier les femmes, comme cela arrive dans les sectes ou les iles. Ou alors il faut réfléchir et commencer à penser. Le messie dans le judaïsme est sensé arriver après cette unification, et si besoin récupérer l’adn des morts( ne pas se faire incinérer) pour relancer la diversité génétique altérée. ce processus est continuellement mis en oeuvre dans nos sociétés à petite échelle avec des variantes entre esprit et corps, pour forcer les gens à « penser » pareil.
Je ne suis pas contre l’IA, mais elle devrait avoir des los style d’azimov, j’en suis à un point où je pense possible à cause de la bétise et avidité ambiante qu’un jour l’humanité s’éteigne à 100%, et que là une IA sous forme robotique puisse se réveiller prélever et recréer l’humanité, il nous faut la technologie non pour faire la guerre mais comme assurance.
Je suis pour une constitution française, européenne, mondiale qui dans ses premiers articles déterminera la mise à mort de tous ceux qui oeuvrent sciemment contre la survie de notre espèce.
Eh bien ! Tout un programme…
Ouep. La partie où il est question de mettre à mort « tous ceux qui oeuvrent sciemment contre la survie de notre espèce » me fait un peu froid dans le dos. C’est à peu près ce que pensaient les nazis des Juifs, ou les staliniens des contre-révolutionnaires.
Je me demande si je ne préfère pas les robots tueurs, finalement. Parce que eux, au moins, on peut les débrancher.
Personnellement, ce que je mettrais dans une constitution, ce sont plutôt des dispositions qui tempèrent nos ardeurs. Par exemple, une déclaration des droits de l’homme. Ou des règles impératives sur le fonctionnement de la démocratie.
Mais des dispositions pénales à spectre large (Å“uvrer sciemment contre la survie de l’espèce humaine, je sais pas trop ce que ça signifie) portant condamnation à la peine de mort, non, pas trop.
En plus, il est question de « mise à mort » et pas de condamnation à la peine de mort. Ca sent l’exécution extrajudiciaire à plein nez, ce truc. Que du bonheur, quoi.
Dans ce que dit lxm, j’ai l’impression qu’on échange une barbarie contre une autre et je ne vois pas trop où on gagne au change.
L’autre truc qui est zarbi, c’est de « récupérer l’ADN des morts pour relancer la diversité génétique altérée ». Et mettre ça en rapport avec le retour du Messie…
Parfois, je perds pied, je dois dire. Je ne sais pas quoi en penser. J’ignore même si on peut en penser quelque chose (??).
Vous êtes bien choqué par le travail du soldat, qui est la létalité, êtes vous sûr d’être sur le bon forum ?
Je dis juste que comme l’histoire nous montre tous les jours que les dirigeants échappent à la justice( clémences et avocats à gogo pour les puissants) et récidivent, que si un dirigeant décide de déclencher une guerre sans raison, utiliser une arme de destruction massive, que n’importe quel soldat l’abatte immédiatement sur place au nom d’une constitution supérieure à celle mise en place par ce même dirigeant. Presque tous les dictateurs subissent des tentatives d’assassinats de la part d’officiers ou de civils éclairés, mais c’est souvent trop tard.
Xi a clairement exprimé dans son plan annoné au parti communiste que son but est la domination mondiale avec une phase soft jusqu’en 2035( des dizaines de milliards d’investissement dans l’IA) puis hard jusqu’en 2050 pour faire tomber les usa, il annonce clairement une guerre avec des machines et l’intelligence artificelle aux commandes avec l’occident. Le coronavirus lui même a 80% de son adn venant du sras et dans le reste y’a de l’adn de hiv qui n’est même pas présent sur le même continent, des scientifiques chinois qui parlent en conférence de manipuler des virus, des scientifiques chinois expulsés du canada pour avoir tenté de voler des souches virales; les militaires chinois tétatinés de la démographie indienne; on rassemble tout cela et on déduit que c’est un arme qui s’est échappé du labo P4 de wuhan, comme cela est déjà arrivé aux usa et en urss par le passé.
Il y a cette idée récurrente de se dire si on pouvait revenir dans le passé, abattrait-on hitler, staline, mao .. , et parce qu’ils ne firent que ce qu’il disaient et prévoyaient, je dis oui.
Quand à la religion juive, elle a influencé l’islam et la chrétienté, elle parle du travail du messie de faire renaitre les morts( utilisant l’adn du coccyx) après la dernière guerre, celle du combat de coq pour la détermination du chef suprême, c’est pour cela que je dis qu’il vaut mieux le faire dans la paix que par la guerre, combien de guerres et de guerres civiles à rome avant d’avoir un empereur ?
« que n’importe quel soldat l’abatte immédiatement »
Donc, il était bien question d’exécution extrajudiciaire.
C’est pas une bonne idée. Revoyez votre copie. Mais j’aime bien « récupérer l’ADN des morts pour relancer la diversité génétique altérée » et sa mise en relation avec le retour du Messie.
C’est original. Je sais pas trop ce qu’on peut en faire, mais ça peut faire une bonne idée de départ pour un scénario de film de SF.
 » Pentagone » « éthiques » « intelligence artificielle ». Chercher l’erreur qui s’est insidieusement glissée dans ce joli triptyque à dormir debout.
Les robots vont respecter les conventions de Genève…
Pourquoi pas? C’est quelques lignes de code dans un programme.
Mais bon, à partir du moment où l’homme reste dans la boucle, la décision de les respecter ou non demeure humaine (ou inhumaine, c’est selon).
Les conventions de Genève sont faites pour ceux qui les ont signées. Les bandes armées ne signent pas et ne respectent pas les conventions de Genève.
yep , sujet intéressant ,
c’est effectivement l’aspect technologique robotique et déshumanisation de la fonction guerrière qui soulève à mon sens la vraie gageure .
L’inquiétant désormais dans la guerre sera l’absence de l’être humain dans l’acte de dispenser la mort ! Les puristes les pacifistes et mêmes certains croyants y verront la libération de l’homme d’un péché .Je crois pour ma part qu’une boite de pandore de plus est en passe d’être ouvertes .
Voyons les choses de façon plus positive: les robots guerriers nous permettent d’intercaler une couche supplémentaire entre la guerre et nous.
Dans la culture occidentale actuelle, on présente la guerre comme un épisode de violence collective armée, en général barbare et particulièrement destructeur. Personne n’est vraiment pressé d’y aller, mis à part les bellicistes, qui ne forment guère une majorité.
L’idée d’avoir des robots qui partent faire la guerre à notre place n’est donc pas si désagréable que ça. Personnellement, je la trouve plutôt positive.
Il faut savoir ce que l’on veut, non? Soit la guerre est une expérience désirable, auquel cas notre but dans la vie est de la provoquer, pour qu’on puisse la vivre pleinement, soit elle n’est pas désirable, auquel cas il convient de la considérer comme quelque chose qu’il faut repousser le plus loin possible de nos trajectoires de vie, de telle sorte que l’orbite de la guerre ne croise jamais l’orbite de nos existences.
Les robots peuvent nous aider à retarder ou à éviter le croisement des orbites.
Maintenant, toutes les sociétés auront-elles des robots guerriers? On peut parier que seules les plus riches en auront. Les plus pauvres continueront à faire la guerre à l’ancienne: en risquant la vie des femmes et des hommes qui les composent.
Mais, est-ce si différent de ce que nous connaissons aujourd’hui? On voit bien que les soldats des pays riches ont des chances de survie plus élevées que les combattants des pays pauvres (un blindé occidental dernier cri offre une meilleure protection qu’un vieux char russe de réforme). Regardez les taux de perte entre les soldats israéliens et les combattants du Hamas ou du Hezbollah. Comparez les pertes américaines et irakiennes lors des deux guerres d’Irak. Ca renseigne, non?
Alors, est-ce qu’on va faire les chochottes? Les morts, on les veut de quel côté? De notre côté ou celui de l’ennemi?
Le Samsung SGR-A1 est un robot militaire « sentinelle » sud-coréen conçu pour remplacer les soldats humains de l’armée de la Corée du Sud dans la zone coréenne démilitarisée à la frontière avec la Corée du Nord….
C’est un système d’armes « létales autonome » mais fixe, fabriqué par Samsung Techwin ,équipé d’une mitrailleuse de type Daewoo K3 de calibre 5,56 mm à grosse capacité et d’un lanceur de grenade pour garder la zone coréenne démilitarisée à la frontière avec la Corée du Nord, particulièrement doué et efficace .
Identification des cibles jusqu’à quatre kilomètres en journée et moitié moins de nuit
et peut « identifier et éliminer » une cible automatiquement au-delà de 3,2 km .
Une belle bête humanoïde munie d’IA et de l’ armement ad hoc….les guerres du futur (proche) se préparent déjà .
https://www.bfmtv.com/mediaplayer/video/atlas-le-robot-humanoide-de-boston-dynamics-sait-faire-des-roulades-1189458.html
Pardon pour BFMTV!!!!
A t’on déjà vu la possibilité d’une arme être refusée ? A t’on déjà vu une arme non utilisée ?
Les robots tueurs viendront aider les soldats tueurs, puis ils prendront leur place … et deviendront autonomes. L’avenir, c’est toujours plus de violence, ce qui entrainera d’autres violences, puis le devoir impératif de se défendre … en faisant des économies de fonctionnement.
L’avenir serait il la Chine ? des robots numériques sont déjà chargés de surveiller en permanence la population chinoise, une police omniprésente connait tout de chacun, elle emprisonne et déporte, et la très glorieuse Armée Populaire de Libération est surtout intervenue … contre son peuple.
Bonsoir,
les lois de la robotique sont de Isaac Asimov.
Merci pour ce que vous faites
C’est choquant dès le titre, cette proximité entre « Pentagone » et « principes éthiques ».
@ linguiste : c’est ce que j’ai rappelé deux fois aussi, mais étrangement, mes deux commentaires n’ont jamais été publiés .. j’aurais eu probablement plus de chance avec des commentaires racistes, qui passent bien mieux . je retiens .
On connait plusieurs cas historiques où les ordres et la procédure auraient entrainé un conflit entre grandes puissances voir une guerre nucléaire, mais à chaque fois un officier ayant la tête sur les épaules a refusé de les suivre. un officier « Humain ».
il y a quelques temps, les essais conduis en terrain difficile et pire en zone urbaine avaient montré que l’homme venait assez aisément à bout du robot le milieu terrestre est trop varié à la différence de milieu homogènes.