Pour Thales, il n’est pas question de doter des « robots tueurs » d’une intelligence artificielle

Voir aussi...

Conformément à l'article 38 de la Loi 78-17 du 6 janvier 1978 modifiée, vous disposez d'un droit d'accès, de modification, de rectification et de suppression des données vous concernant. [Voir les règles de confidentialité]

35 contributions

  1. Fusco dit :

    Le jour où une entreprise d’IA sera crée et qu’elle s’appellera SKYNET, nous aurons du soucis à nous faire. Surtout les homonymes de SARAH CONNOR 😉

    • Pascal (l'autre) dit :

       » Le jour où une entreprise d’IA sera crée et qu’elle s’appellera SKYNET, nous aurons du soucis à nous faire. Surtout les homonymes de SARAH CONNOR  » SKYNET existe déjà c’est un fournisseur d’accès à internet belge!

  2. Ysgawin dit :

    C’est gentil cette déclarationd e M. Cain, mais si les concurrents de Thales fabriquent de telles armes, que ses clients lui en demandent et qu’il refuse de les satisfaire, que va-t-il se passer ?
    A mon avis 2 choses :
    – les dits clients iront acheter leurs robots tueurs ailleurs, et à part une perte de chiffre d’affaires pour Thales, ça n’aura pas avancé à grand chose
    – les actionnaires de Thales vont gentiment demander à M. Caine d’aller voir ailleurs… POur le remplacer par quelqu’un ayant moins de principes moraux
    Et en passant, l’industrie Française aura encore pris 10 ans de retard dans un domaine clé.

    • Fred dit :

      @ Ysgawin
      Tu parle avec beaucoup de légèreté … Réfléchis bien, relis ce qui est dit sur le sujet. La perspective de voir des robots tueurs autonomes, éventuellement physionomistes est totalement effrayante.
      Comment peut-on se projeter sur une perspective économique alors que la question intrinsèque est infiniment plus catastrophique ?

      • NRJ dit :

        @Fred
        Qu’est ce que qui vous fait peur ? Le changement ? Il faut pas être conservateur au dépend de la vie des soldats sur le terrain.

        Par ailleurs la guerre est par elle-même une catastrophe et l’une des pires choses que l’on peut imaginer. Si vous avez peur des armes je me demande ce que vous faites sur ce site.

      • Tintouin dit :

        Ne nous leurrons pas. Ce que la technologie permet, l’Homme le fait…

        Les robots tueurs occasionneront quelques bavures.

        Leurs défenseurs rétorqueront que les guerres avec des Humains appuyant sur le bouton ont eu leur lot de bavures et autres crimes de guerre.
        Ils mettront aussi en avant un processus d’amélioration continue, qui permettra de rendre toujours plus performants les critères de déclenchement du feu et la programmation des Intelligences Artificielles des robots tueurs.
        Au final, ils avanceront que sur un plan statistique, les robots tueurs sont plus sûrs que l’Humain (pauvre être charnel), soumis au combat à des conditions exceptionnelles de stress pouvant altérer son jugement et sa prise de décision.
        Un peu comme il est plus sûr de prendre l’avion que de prendre sa voiture…

        La magie du chiffre statistique s’imposera à tous, à Thales comme aux autres.

        Perspective tout de même flippante au jour d’aujourd’hui.

    • lym dit :

      Même à ne se baser que sur des considérations économiques, que pensez-vous de l’avenir d’un industriel de défense dont l’armée de robots aura largement déconné?
      De plus, il n’y a aucun retard possible à ne pas le faire, l’IA n’a heureusement pas besoin d’être autorisée à tuer pour avancer aux niveaux théoriques et pratiques.

  3. Raymond75 dit :

    Une sage décision, respectable et humaine ! Mais d’autres pays, notamment les habituels USA, Russie et Chine passeront outre. Il faudrait un accord international et une forte pression des milieux scientifique et civils. Développer des armes est facile, refuser de le faire est difficile !

    • Alain d dit :

      Un accord international, mais comment le faire respecter, puisque ça impliquerait des contrôles dans la R&D et les essais? Encore plus compliqué à contrôler que le nucléaire.
      L’IA n’est pas matérialisable par un volume, et elle peut être chargée au dernier moment dans un système dès qu’elle a été testée secrètement avant. Et tout autant déchargée rapidement pour éviter un contrôle.
      Cette course folle me parait difficile à éviter.
      Et c’est bien des systèmes autonomes qui semblent le plus capables pour bluffer, effacer ou contrer des déni d’accès.
      Ca vaut aussi pour le spatial. L’IA c’est global, si on esquive un des secteur, il nous manquera une précieuse expertise (en attaque, mais déjà en défense), et évidement on perdra des marchés commerciaux et on pourrait se faire balader sur un théâtre d’opérations.
      Si la Russie, la Chine et les USA passent outre, on resterait spectateurs ?
      Thales est un des leader dans les systèmes, le spatial, l’IA, les lasers, les détections, les ondes, les radars, sonars et la cyber sécurité, alors j’ai des doutes….
      Autant fermer tout de suite la boutique?
      Evidement il serait préférable de trouver un accord, mais là encore, on est à la ramasse, il aurait fallu commencer ces négociations bien plus tôt. Idem que pour le cyber et le spatial.
      Dès qu’on met de l’IA autonome dans des système militaires, drones marins par exemple, comment fixer la limite entre la défense (qui peut passer par la destruction de mines) et l’attaque, dès qu’on a un engin qui peut détruire ou occasionner des dégâts en toute autonomie ?

  4. nexterience dit :

    Tuer est précédé d’un jugement : rapide mais inévitable. Est ce un ennemi ou non, suis-je en danger si je ne tue pas pour le neutraliser.
    Si l’IA est capable de faire ces jugements mieux qu’un humain, elle sera alors déjà jury de tribunaux civils.

  5. Castel dit :

    Ben, ça ne serait peut-être pas si mal, de les doter d’un logiciel qui pourrait les aider à différencier l’ami de l’ennemi quand même……
    Maintenant, à contrario, la décision finale d’ouvrir le feu ou non, devrait rester de mon point de vue à la discrétion de l’opérateur !!

  6. RIEUTORD dit :

    Si ce sujet vous intéresse, je ne peux que vous recommander mon livre Les robots terrestres parmi les hommes, publié en décembre 2017 chez l’Harmattan et disponible sur tous les sites marchands en ligne

  7. wagdoox dit :

    quand on voit qu’une voiture autonome ne peut pas choisir entre écraser le chien ou la grand mère (si ce choix unique lui est posé) que ce passera t il quand un SALAT ce retrouvera devant un enfant avec une arme fictive (jouet) ? Bref j’attendrais de voir les compagnies aériennes remplacer leurs pilotes par une IA avant de m’inquiéter. Enfin la question du prix devrait largement diminuer avec l’automatisation mais de production.

    • EchoDelta dit :

      Il faut arrêter les fantasmes avec l’IA. Ce n’est jamais qu’une ou plusieurs méthodes d’apprentissage qui sont codées. Croire qu’un robot seul pourrait développer un jugement un jour est complètement utopique. La polémique sur le choix des véhicules autonomes ne s’est jamais posé. On ne choisi pas un accident, on le subit, a 100% en conduite autonome. C’est donc toujours un échec.

    • Pascal (l'autre) dit :

      Si vous avez de la progéniture qui ne sait pas encore quoi faire comme métier plus tard, suggérez leur de faire des études de juristes et d’avocat! je pressens un véritable « boum » de ces métiers dans les décennies à venir!

  8. Raymond75 dit :

    Cette décision, isolée semble t’il pour l’instant, repose la question de l’éthique, qui n’est pas un gros mot, et entre autre de celui de la responsabilité.

    Au niveau du grand public, qui est responsable de l’accident conduit par un véhicule autonome ? Sans réponse pour l’instant, ce type de véhicule ne peut être diffusé.

    Au niveau militaire, qui serait responsable d’une mauvaise ‘décision’ de cette machine ? La question est pour partie plus simple car dans la pratique , ne sont coupables que les vaincus, qui sont jugés par les vainqueurs, et la notion ‘dégâts collatéraux’ est bien entrée dans les mœurs.

    Les généraux Harris et Le May qui ont réduit en poussière et en cendres les villes européennes et japonaises n’ont jamais été jugés : ils étaient les vainqueurs. Si le général Galland avait fait la même chose (et il l’aurait fait si il en avait eu les moyens), il aurait été jugé, et condamné, pour crimes de guerre à Nuremberg.

    Finalement, l’éthique en matière militaire ne prend consistance que grâce au travail des ONG et à la réprobation civile et universelle (ex : les mines anti personnel). Mais il y a toujours des pays qui refusent le principe même de limitation (pour eux, pas pour les autres) ; les USA par exemple refusent tout traité contraignant et tout jugement par des pays tiers de ses soldats. Et lors des guerres civiles, ou asymétriques, actuelles, toute notion d’éthique voire même de civilisation disparait.

  9. Fred dit :

    Dans ses excellents romans d’anticipation, Isaac Asimov montre justement comment les lois fondamentales « humanistes » des robots telles que celles citées par Laurent Lagneau peuvent être contournées ou dévoyées de leur sens premier. À méditer, à remettre ces lectures à l’ordre du jour de la conscientisation responsable.

  10. Faublas dit :

    La question est sur un système aussi sensible, qui sera le premier qui osera ? dès lors qu’un acteur engagera ce type de robot autonome, les autres seront obligés de suivre, on l’a vu pour la guerre chimique, biologique, atomique et maintenant cybernétique.
    De mon point de vue, les questions éthiques disparaîtront à la première utilisation.

    • Frédéric dit :

      Dans ce cas, on n’a pas grand chose a craindre 🙂 Pas une seule utilisation de l’atome au combat depuis 1945, armes biologiques bannis, usage d’armes chimiques interdits et aux risques de l’utilisateur voir le régime de Damas.

    • nexterience dit :

      Nous pouvons remarquer que l’arme biologique a été utilisée à la 1GM et taboue à la 2nde.
      Il est possible que l’arme nucléaire utilisée à la 2 nde soit taboue pour longtemps.
      Et le prochain conflit utilisera peut être l’ia tueuse et la rendra peut-être taboue.

      • Faublas dit :

        Certes, mais utilisées quand mêle, et le seul espoir est un conflit « cybernétique » où seuls des moyens autonomes dot »s d’IA s’affronteront. Ce sera une guerre virtuelle.

  11. Chanone dit :

    Des robots tueurs…
    Les briques pour des engins automatisés pouvant pointer et utiliser leur arme… OK, l’humain peut le construire. Après, programmer un système pour qu’il tire sur tout ce qui bouge, c’est pas impossible à écrire non plus. D’ailleurs il serait aisé à rendre assez compact pour qu’il rentre dans un mobile de la taille d’une voiture équipé d’une mitrailleuse… Qui à dit VBL?
    Le pourquoi de cette amélioration, c’est que la vie humaine devient un élément politique crucial dans les conflits: on diminue le niveau d’impopularité des guerres(elles ont toujours un coût financier mais il peut être occulté ou dilué), on concède moins de prisonniers et l’on offre moins de moyens de pression à l’ennemi.
    Cet ennemi peut être de deux sortes: le symétrique qui possède les moyens de neutraliser rapidement ces jouets de riche (voir plus loin), et l’assymétrique, le groupe armé qui est invisible dans son environnement et qui nécessite d’être longuement dépisté pour être neutralisé. Cette patience, une machine la possède au plus haut niveau tant qu’elle est ravitaillée…
    .
    C’est là que se posent les questions les plus inquiétantes: la propagation des briques technologiques , dont des ressources de calcul dématérialisées, mais disponibles via une connexion ou un réseau permettraient des assassinats/embuscade imparables: voiture explosives, tir d’armes automatisées au plus haut niveau… Le monde deviendrait infernal si les moyens financiers des grandes nations se concentraient sur de tels systèmes car ils viendraient immanquablement à tomber entre les mais « d’assembleurs » qui n’auraient pas de scrupules et attaqueraient tous azimuts pour créer la terreur. Il y a déjà des groupuscules avec de telles idéologies, et qui ont les moyens financiers et techniques de commettre des actes similaires avec des technologies modernes.
    .
    Pour conclure, parer à de telles menaces demande des accords et des traités. Il y en a eu auparavant sur les armes et on peut en apprécier la portée et l’impact… assez variable.
    un éventuel « système expert » n’est tout de même pas une arme à proprement parler, et il ne se contre pas avec une armure physique, qu’elle soit en acier, polymères, ou soie d’araignée: il faudra des programmes traqueurs, des virus adaptés, et des brouilleurs ou des armes anti-électroniques d’un genre nouveau.

  12. lxm dit :

    Quand des politiciens ou des généraux seront exécutés par des drones tueurs, vous verrez très vite les lois changer et interdire la simple possession de la technologie, voir même de la technologie tout court, cette dernière étant réservée aux citoyens « de confiance » au même titre qu’il faut un permis de conduire pour conduire.
    On nous présente souvent des futurs où tout à chacun baigne dans la technologie mais cela pourrait- être exactement l’inverse, un retour au servage pour la majorité avec une élite ayant seule le droit de se déplacer et user de hautes technologies, un peu comme imaginer partout des villages en bois du néolithique et des seigneurs qui débarquent en soucoupe volante pour mettre enceinte la belle fille du coin et améliorer le troupeau. Sinon, si on veut éradiquer le concept même d’élite( le terroriste ne peut plus viser personne en particulier), il faut une démocratie directe à base de référendum et un haut niveau de sagesse générale nécessitant la fin de la mise en compétition de tous contre tous, en quelque sorte, on tape direct sur celui qui veut dominer son prochain au lieu de lui donner le pouvoir.

  13. werf dit :

    C’est du beau pipeau, aujourd’hui ,comme demain, il faut vendre. Si l’engin est capable d’être autonome, il pourra, certes par une intervention humaine très simple, être mis en mode automatique pour une période donnée et un champ donné (combat de rue, manifestation, nettoyage d’une région donnée etc..).

  14. Parabellum dit :

    Désolé mais les tournois de chevalerie n existent plus depuis longtemps…les robots c est tuer l autre sans en prendre le risque point barre. C est pas glorieux mais ces engins vont pulluler très vite car précisément ils peuvent faire cela..entrer dans une rue et flinguer les adversaires sans que le voltigeur humain ne risque sa peau..la ferraille autoguidée se prendra peut être une mine ou un rpg ou une rafale qui foutra en l air ses capteurs mais ca ne sera que de la frarraille …demain on aura des nuées de drones dans les trois dimensions..ok ca veut dire zéro killed pas de mort alors ok pour que nos armées français aient des drones et meme vite…le feu tue… que ce soit un homme ou un robot…qui a vu certaines villes comme Sarajevo ou beyrout ou en Syrie comprend ce que ces robots feront à la place des hommes…en pire mais c est la guerré…celui qui crée une arme supérieure gagne souvent…les arcs anglais d azincourt contre nos beaux chevaliers…

  15. Deres dit :

    Ce genre de débat n’a pas de sens car les « robots tueurs » existent depuis longtemps sous la forme des armes auto-guidés. Cela à commencer par les torpilles puis les missiles anti-navires et aériens. Ceux-ci peuvent être tirés sur zone, acquérir en toute autonomie une cible et faire de la ré-acquisition en cas de perte de la cible. Les exemples historiques où ce type d’arme a frappé des civils sont très nombreux. Les ukrainiens ont déjà abattus un avion de ligne avec un missiles actif sortant de la zone d’entrainement et faisant son acquisition de cible tout seul. Au malouines, l’Atlantic Conveyor, un cargo (certes utilisés par les militaires) n’était pas la cible visé qui était une frégate qui a évité le missile par leurrage.

    L’intelligence artificielle actuelle n’est qu’un raffinement de ce type d’arme existant avec justement la possibilité de mieux distinguer les cibles l’une de l’autre. D’un certain point de vue, elle permettra donc à ces armes d’être moins dangereuse pour les civils !

  16. Raymond75 dit :

    Il ne faut pas oublier que le plus dangereux reste l’intelligence biologique, celle qui prend la décision de développer et d’utiliser ce magnifique témoin du progrès scientifique, et qui semble être gouvernée uniquement par la menace et la crainte … comme les animaux.

  17. Henri MARTIN dit :

    Tuer avec un robot ou par la main de l’homme quel est la différence ? J y vois par contre une guerre entre robots tueurs peut être un mieux pour l’l’humanité ?

  18. Allard dit :

    Ces états d’âmes sont digne de l’interdiction de l’arbalète par l’église.
    La réalité est que les premiers robots tueur ont été mis en service il a plus de soixante ans, ce sont les mines (anti personnels et anti chars). Dans le cas d’une mine la décision de tuer est bien déléguée à la machine et ce si les Etats Unis et Israël n’ont jamais signé le traité d’interdiction c’est que la frontière libanaise ou entre les 2 Corées en sont truffés.
    Pendant la guerre froide les Allemands de l’Est avaient équipés le mur de séparation de mitrailleuses qui se déclenchaient automatiquement sous l’action de capteurs de mouvement, là aussi la décision avait bien été délégué à une machine.

    • Robinson dit :

      On peut même alors remonter à des millénaires, lorsqu’ont été inventés les pièges pour la chasse ou la défense.

  19. Robert dit :

    Cela n’existe pas l’intelligence artificielle.
    Un robot peut être doté de fonctions propres à l’être humain, mais la conscience et la liberté resteront toujours le propre de l’espèce humaine.
    Le projet du transhumanisme est de rejeter ce qui fait la nature et la dignité de l’espèce humaine pour « créer » un « homme augmenté » qui en quelque sorte se créerait lui-même dans un orgueil prométhéen. Projet déjà développé par les Lumières avec la Mettrie et sa théorie d’homme machine qui s’accordait formidablement avec le « bon sauvage » de Rousseau.
    Orgueil dont on devine sans mal qui est le père.
    Ce qui est en jeu, c’est de développer, ils disent créer car leur orgueil est de s’affranchir de la création divine, des « être humains augmentés » et d’autres qui seront des esclaves au service des premiers. C’est ce qu’on peut comprendre en lisant Jacques Attali, conseiller des présidents depuis Mitterrand, qui voit l’euthanasie pour les « bouches inutiles » et les non productifs et des hommes qui serviront de pièces de rechange pour d’autres, ceux qui seront considérés comme supérieurs à eux, « l’humanité augmentée » qu’il appelle de ses voeux.
    Je sais que je parais à côté de la plaque, mais les robots sont une étape sur ce chemin, la « fabrication » d’un être humain posant quelques « problèmes » majeurs.
    En réalité, avec ces robots, ce qui compte, ce ne sont pas les fonctions qui lui seront fournies qui resteront arbitraires, il n’aura pas de libre arbitre et ne pourra pas refuser ce pourquoi il a été programmé, mais qui les programmera et dans quel but car ce seront eux leur « conscience ».
    https://iatranshumanisme.com/2018/10/09/homme-machine/
    http://www.philo5.com/Les%20philosophes%20Textes/LaMettrie_HommeMachine.htm