Une intelligence artificielle domine un pilote de chasse lors d’une simulation de combats aériens

Voir aussi...

Conformément à l'article 38 de la Loi 78-17 du 6 janvier 1978 modifiée, vous disposez d'un droit d'accès, de modification, de rectification et de suppression des données vous concernant. [Voir les règles de confidentialité]

71 contributions

  1. La Tour d'Auvergne dit :

    C’est comme d’habitude aux US, derrière cela il y a beaucoup d’argent à récolter de la part du DoD. Alors, une bonne campagne de pub et ça marche!

  2. E-faystos dit :

    Ne pas remplacer le pilote, même si il n’est pas irremplaçable, mais l’assister.
    Que dire de plus de cette nouvelle? Que le lobby anti-skynet à encore un peu de temps devant lui aux états-unis.
    C’est une arme automatisée, même à grand renfort d’arguments com’ comme « deep learning » est certainement un tueur exceptionnel, inventif, réactif… Mais quid du contexte? Parce que lâcher une machine de guerre sans âme, c’est envoyer une machine sans recul, sans hésitation, qui ignore tout du contexte géopolitique et s’en tiendra à sa spécialité: prendre le dessus sur l’adversaire et l’envoyer au tapis avec une économie de moyens, tirs et manœuvres maximale.
    Et que ce passera t-il si l’ennemi ne respecte pas les règles? l’éthique n’étant pas codable, il va il y avoir une belle bavure à la sortie.
    J’attends de voir si l’informatique quantique apportera ce supplément d’âme, mais le délai va se compter en décennies.
    .
    L’autre point est plus technique: les pilotes de chasse de l’US Air Force ont perdu de leur mordant avec le temps qui passe (la France a le même problème) et les tacticiens de tout bords ont porté au nue le « combat au delà de la portée visuelle: pas de contact visuel, juste une confirmation par les opérateurs de l’AWACS en couverture et zou: une praline estampillée AMRAAM, METEOR ou R 77.
    Mais le combat canon, c’est autre chose: il faut verifier plein de trucs en même temps sans quitter l’adversaire des yeux. Le combat « de chiens », c’est ce qui faut éviter et pourtant, si l’adversaire fonce droit sur vous et qu’il brouille vos missiles longue portée, qu’il leurre les missiles infrarouge, il faudra bien le stopper d’une manière qui fait fi des contre-mesures, de la discrétion, et des leurres. Le canon n’est donc pas seulement l’arme de la dernière chance, c’est celle où l’expérience, l’expérience et… l’expérience compte.
    .
    Et l’avion? MiG 17 contre Phantom II égal Phantom en détresse. L’américain devait bien voler deux fois plus vite et posséder tout un arsenal moderne. Mais face à canon de 37… la messe est dite!

    • Pascal (l'autre) dit :

      « Et l’avion? MiG 17 contre Phantom II égal Phantom en détresse. L’américain devait bien voler deux fois plus vite et posséder tout un arsenal moderne. Mais face à canon de 37… la messe est dite! » En a découlé r la création à Miramar en Californie de l' »école de combat aérien « Top Gun » pour « réapprendre » les bases du combat aérien alors que les « stratèges » ne juraient que par le tout missile! Et aussi de rééquiper certains avions en canons pods tout d’abord puis intégré à la cellule comme pour le Phantom F4 E qui vit un canon à six tubes rotatifs type « Gatling » le GAU-4 M61 Vulcan de 20 mm monté sous le nez dans l’axe de l’avion. Même un intercepteur hyper spécialisé et seulement armé de missiles comme le Convair F106 Delta Dart fut équipé à mi carrière d’un canon Vulcan à six tubes monté dans sa soute à missiles. Ce programme de rétrofit a été nommé avec ce sens du symbole typique des Américains « six shooter » expression d’argot désignant tout revolver à six coups célèbre pendant la conquête de l’ouest et dans le Far West.

    • Thaurac dit :

      « Et l’avion? MiG 17 contre Phantom II égal Phantom en détresse. L’américain devait bien voler deux fois plus vite et posséder tout un arsenal moderne. Mais face à canon de 37… la messe est dite! »
      Justement le combat « tournoyant » est fait pour , soit être derrière l’ennemi pour l’ajuster ou soit être devant et tout faire pour ne pas être aligné, ce n’est pas le calibre qui va faire la différence, car sachant le type d’avion , son armement est connu, le plus agile gagne (fait il que l’avion et l’homme encaisse tout)

      • E-faystos dit :

        @ Thaurac
        « Size does matter »
        Si votre arme de bord et native, et donc mieux intégrée, c’est un plus. Si en plus elle assure un tir plus tendu et un impact destructeur à l’arrivée, c’es encore mieux.

    • François dit :

      Qu’est-ce qui vous fait dire que l’étique n’est pas codable ?
      On peut mettre par écrit les règles étiques à respecter. On peut donc les coder.
      Les limites à ne pas dépasser, les précaution préalables à prendre, la position du curseur dans chaque domaine, etc … ne sont pas forcément faciles à déterminer, mais une fois que le cadre étique est déterminé par l’homme, on peut le mettre par écrit et donc on peux forcément le coder.
      Pensez-vous que l’humain n’a jamais commis de bavures ?
      Vous demandez ce qui se passera si l’ennemi ne respecte pas les règles. Mais l’ennemi n’a pas attendu l’IA pour ne pas respecter les règles.

      • E-faystos dit :

        @ François
        Je m’appuie sur un ouvrage quasi universitaire sur la question: Robots tueurs de Mr Armand Colin.
        https://iatranshumanisme.com/2018/12/12/robots-tueurs-que-seront-les-soldats-de-demain/
        .
        Personnellement, donner à une machine les moyens de « décider » de la vie et de la mort d’autrui me cause une gêne certaine. Concrètement, une automate fait très bien le travail de combattant: il voit, analyse et tire.
        Mais si un homme tire, et cela s’est déjà vu, cela se voit, et se verra encore de nombreuses fois, c’est une erreur humaine, qui demandera une enquête au bout de laquelle un jugement, ou des mesures seront décrétés.
        Et cela quelle que soit la technicité des machines tant qu’il n’y a pas de décision  » autonome ».
        .
        Glissons maintenant une logique artificielle à un système d’arme… Brouillons-le, ou pire, piratons-le. Je vous invite avec cette possibilité à ausculter votre rapport à vos sens et à l’information, et vous voudriez qu’un calculatrice améliorée fasse le tri mieux que vous? Moi, je ne m’y risquerai pas: en six ans sur ce blog, j’ai surtout compris les limites de mes connaissances et si il y bavure, c’est qu’un pilote moyen demande un long processus de sélection pour obtenir un technicien, sportif, aux réflexes affûtés pour un environnement bien spécifique qui est le combat sous facteur de charge, où la pression physique et psychologique est énorme.
        Or, si je suis bien conscient qu’en cas de combat tournoyant, un automate sera bien plus performant que n’importe quel pilote, et que les constructeurs pourront à court terme ajouter cette fonction au pilote automatique en « joker », sortir l’homme de la boucle n’est pas une option.
        .
        « On peut mettre par écrit les règles étiques à respecter. On peut donc les coder.
        Les limites à ne pas dépasser, les précaution préalables à prendre, la position du curseur dans chaque domaine, etc … ne sont pas forcément faciles à déterminer, mais une fois que le cadre étique est déterminé par l’homme, on peut le mettre par écrit et donc on peux forcément le coder. »
        Oui, on peut d’ores et déjà limiter les libertés d’une machine autonome en lui inculquant le respect des frontières OU le respect de son intégrité OU certaines capacités à percevoir un ami/ennemi via des coordonnées GPS, une ligne de code ou un module ami/ennemi… Mais un neutre? Un neutre suspect? un ennemi qui se rend? des mesures de déconfliction?
        Et comment gérer les conflits inévitables entre les différents paramètres si, et je dis bien si, on se base sur les technologies actuelles qui ne sont pas douées pour la graduation?
        .
        La littérature sur la question de ce que l’on appelle à tort « l’IA » commence à abonder. Le temps que les armées ne passeront pas à former leurs soldats, elle le passeront à rafraîchir les programmations de ses automates, et cela même dans les conditions les plus douteuses et avec la plus haute sécurité qui soit… donc encore des technologies de cryptages qui devront être considérablement améliorées.
        .
        Et en dessert, comme développer ces technologies coûtera un bras, l’export sera un moyen naturel de rentrer dans ses frais. Et si il y a une bavure, comment faire fonctionner la garantie constructeur?

        • François dit :

          Votre réflexion est intéressante, je vous rejoins en partie, mais pas sur tout.

          Les technologies de défense actuelles sont déjà si coûteuses qu’on est déjà obligé de les exporter.

          Mon commentaire concernait uniquement les pilotes de chasse et non pas une armée robotisée de façon générale, surtout au niveau du commandement.
          Lors des opérations extérieures actuelles les pilotes obéissent à des règles d’engagement très précises. Ces règles peuvent être assimilées par une IA.
          Un « neutre, un neutre suspect ou un ennemi qui se rend », je ne suis pas certains qu’un pilote de chasse soit dans ces situations. Et, aux risques de vous choquer, l’IA (qui effectivement porte mal son nom) peux mieux que l’humain prendre en compte des nuances et des détailles. Je ne suis pas certain que l’IA soit moins douée pour la graduation que l’humain.
          Mais bien sûre il n’est pas question de sortir totalement l’homme de la boucle.

          • E-faystos dit :

            @ François
            Certes.
            Pour ma part, l’affaire est pliée: un automate fonctionne en 0 et en 1, et je ne pense pas qu’il soit capable de gérer un comportement de déconfliction parce que le plus facile à programmer, c’est les Basic Fighting Manoeuvers, ou manœuvres basiques de combat. Je regarde les choses à plus larges échelle parce que pour opérer confortablement au sol, il faut la maîtrise du ciel, et au delà de l’espace. Car depuis l’espace, on observe. Depuis le ciel, on frappe et au sol, on tient le terrain.
            .
            Il y a des années j’en avait parlé avec un ingénieur développeur qui ‘a affirmé que je prenais mes rêves pour des réalités en imaginant dans un futur proche des machines assez autonomes pour combattre « proprement ».
            .
            Avec l’interconnexion des divers éléments du champs de bataille, une armée même réduite en taille, peut générer un volume de feu sans précédent par la vitesse de transmission.
            C’est une option qui, assumé par un grand nombre d’élément robotisé où chaque élément devient une brique qui démultiplie la force de l’ensemble est un futur des plus tentant, parce que depuis la BlitzKrieg de 40, communication et précision de feu sont des éléments clefs d’une bataille, qui était auparavant une question de masse d’infanterie.
            Du coup un pilotage automatique optimisé pour le « combat de chien » quand l’objectif, c’est de gagner les batailles pour remporter la guerre… Aucune nation développant un tel programme n. e s’arrêtera en aussi bon chemin: trop d’inertie.
            .
            Maintenant, un cas pratique: imaginez vous dans un avion de tourisme en perdition, et que celui qui vienne vous tirer d’affaire ne soit pas le capitaine Michel Tanguy, mais ADAE 827, le robot volant tueur optimisé pour combattre. En cas de panne radio, il va falloir passer par du morse avec des phares, et je ne doute pas que la machine sache faire, mais le geste de complicité d’apaisement quand les deux appareils seront au coude à coude pour entamer le guidage vers un aérodrome de secours? parce que soit on procède à une reprogrammation, soit on conserve la Permanence Opérationnelle.
            Donc aucune ou peu d’économie, et ce n’est pas un truc qui va passer dans l’opinion, et les touristes volants en difficulté vont vite déchanter si une voix artificielle les traite comme des ennemis potentiels.
            L’exemple peut sembler douteux, mais la plupart des décollages sur alertes concerne des incidents dont la variété demande une réelle capacité d’adaptation, et si il faut en référer à la hierarchie, comment faire passer des instructions à une machine prise au dépourvu, c’est à dire sans code prévu pour gérer un cas atypique?
            Alors l’avantage, c’est qu’une fois enrichi, l’entreprise pourra cloner la base de données et l’inclure à tous les systèmes. Mais les conditions de sécurités feront passer un transfert de fond de la banque de France pour une simple cavalcade de Gendarmes un peu à cran.

          • Robert dit :

            Je ne comprend pas grand chose, sinon rien, à votre jargon professionnel, mais je pense percevoir les questions qui peuvent se poser.
            L’intelligence artificielle n’en est pas une, elle est programmée par des humains dans un but précis. Et la « philosophie » qui tend à se développer est d’augmenter le pouvoir de certains dans une perspective future. Je n’invente ni n’interprète, leurs promoteurs connus l’avouent de plus en plus clairement.
            Et parmi ce pouvoir augmenté, celui de dépasser la morale, rebaptisée éthique pour faire moins religion et plus scientifique, pour l’efficacité.
            Un programme aura-t-il des états d’âme, des doutes, hésitera-t-il avant de tirer pour tuer?
            On peut en douter, vu la complexité des situations qui peut exister.
            Par contre, cela peut permettre d’avoir le dernier mot sur le terrain tout en absolvant de toute responsabilité morale le commandement et les humains qui auront encadré le programme.
            Je sais, ce que je dis est stupide, cela n’existe pas. On ne tue pas en se cachant derrière l’excuse de la nécessité, en déshumanisant son adversaire, en justifiant son acte par le « bien commun ».
            Donc, on ne programmera jamais une machine pour qu’elle en fasse de même, les états d’âme du soldat en moins. Et on ne passera jamais un programmateur en jugement.

      • Jack2 dit :

        Pour appliquer une règle éthique il faut être capable d’évaluer une situation et c’est cela qui est difficile. Cela demande une connaissance du contexte qui va bien au delà du seul combat : origine de la cible, contexte politique, conséquences de l’action (ce sur quoi bute aujourd’hui la conduite automatique car il faut se projeter dans l’avenir), …
        Une IA ne peut être considéré que comme un outil (une arme) sans état d’âme.

  3. Auguste dit :

    Les peuples qui n’auront pas investi dans les technologies robotiques,seront condamnées un jour à se battre contre des robots.Disait un blogueur.C’est de moins en moins impensable.

  4. Clavier dit :

    LM continue à être moins bon que ses commerciaux le prétendent…..

  5. Frede6 dit :

    Est ce surprenant ?

    Au risque de bousculer les corporatismes,
    à quand un avion conçu pour etre opéré sans pilote: facteurs de charge plus élevé, design pensé sans un poste de pilotage contraignant, sans le poids de la sécurité…

    J espère que les concepteurs du SCAF qui volera jusqu’en 2060/2070 l’intègrent dans leurs réflexions.

  6. Durandal dit :

    Biensur, c’est le ‘machine learning’, la machine apprends elle-même de ses erreurs.
    Effrayant non ? 🙂

    • EchoDelta dit :

      Oui en l’occurence c’est le pilote humain qui a appris et a combler une partie de son retard sur la machine à chaque combat.

      • THIERRY CAUSSE dit :

        https://www.youtube.com/watch?v=v4PNGkif1nw bof bof belle manipulation

      • Durandal dit :

        1 l’humain a des limites, il finira toujours par faire une erreur, son horizon d’apprentissage est limité, à l’inverse, la machine sera en permanence amélioré soit par l’homme soit par elle-même. 2/ la machine n’encaisse pas les G elle, elle a donc la aussi un énorme avantage. Bref ceux qui pense que la machine ne peu pas prendre le pas sur l’homme sont crédule. C’est la même chose avec les ordinateurs d’échecs, après 40 années de mise au point, ils sont maintenant imbattables.
        C’est également comme la conquête spatiale, ce n’est pas un domaine réservé a l’homme, mais aux machines, ceux qui pensent que nous pourrons bientôt envoyer des hommes sur la planète Mars sont fous, c’est pour les 50 années à venir un monde réservé aux machines.

    • Raymond75 dit :

      La machine n’apprend pas : elle établi un lien entre une situation encore nouvelle et une décision d’action dans un objectif déterminé par avance. Une machine n’a aucune compréhension de la situation. On a constaté que des machine qui sont capable d’identifier par exemple un chat sur une photo, peut obtenir des réponses fausses si quelques pixels, invisibles pour nous, sont modifiés.

      De plus, une machine qui peut identifier un chat ne saura pas identifier une table ou un bateau. Une illumination par un laser, des conditions atmosphériques inhabituelles, une perturbation électro-magnétique peuvent totalement désorganiser cette pseudo intelligence.

      Le ‘deep learning’, l’apprentissage profond, consiste à faire défiler des milliers de photos ou de situations en entrée, et à répodre ‘vari’ ou ‘faux’ à la réaction de la machine. Celle ci progresse et afine ses réponses, mais on ne sais pas comment …

      • Hermes dit :

        « mais on ne sais pas comment … »
        .
        Heureusement que l’on sait comment, dans le cas contraire cela voudrait dire qu’il y a un comportement complexe hors programmation, ça serait une aberration.
        Il n’y a rien de magique, une quantité de données colossale est traité pour créer modèle qui octroiera une certaine fiabilité.
        De même heureusement que quelques pixels ne suffisent pas à mettre en échec les programmes de reconnaissance, sinon il faudrait autant de programme que de support/capteurs.
        C’est une question d’alimentation, il faut bien « nourrir » son modèle.
        .
        Les IA’s de diagnostique médicales sont un excellent exemple d’application avec un taux de réussite supérieur aux médecins.
        Ca ne veut pas nécessairement dire que les médecins seront remplacé par les IA’s, du moins pas de suite, par contre, ça peut être une excellente source d’information pour le personnel médical.
        De mémoire, c’était dans le cas de détection de cancer que l’IA avait été particulièrement performante en comparaison des médecins, permettant de déceler de nombreux cas qu’ils n’avaient pas diagnostiqué.
        .
        Tout ça pour rappeler, que Terminator c’est pas pour demain et que les IA’s ne sont pas encore prête à être décisionnelles (Il faudrait qu’on atteigne le stade de la compréhension des enjeux/instinct, pas une mince affaire).
        Par contre ce sont d’excellente assistantes/consultantes.

    • Jack2 dit :

      On a appris à une IA à jouer au GO, on ne lui a pas fait ingérer des milliers de parties faites par des humains (comme ses précédentes consœurs) , mais elle a joué 4,9 millions de parties contre elle-même. Cela a pris 40 jours. Elle a battu toutes les autres IA (dont celle qui avait battue le champion du monde).
      https://www.01net.com/actualites/comment-l-ia-de-deepmind-est-devenue-invincible-au-jeu-de-go-en-40-jours-1281517.html

      Bien sur, il faut un supercalculateur derrière (non embarquable aujourd’hui).
      Par contre il devient quasiment impossible de savoir pourquoi une décision a été prise par l’IA et donc de l’enseigner.

  7. Muse dit :

    Message à destination de tous ceux qui m’ont contredit il y a deux semaines quand j’évoquai l’usage imminent de drones en lieu et place des avions pilotés par un humain.
    Et pour les chars c’est encore plus proche !
    Salutations.

    • PK dit :

      Pour les chars, c’est beaucoup beaucoup beaucoup plus compliqué que pour les avions… Question d’environnement. 99,99% du ciel est vide… alors que quasiment 100% du sol est parsemé d’embûches.

      De plus, les obstacles à affronter pour un char sont bien plus multiples que pour l’aviation et la marine. Les premiers drones sont aériens et ce n’est pas pour rien !

    • sentinelle dit :

      non justement à terre c’est beaucoup plus difficile !

  8. Fafou dit :

    Ah mes yeux, l’histoire est pliée d’avance.
    Quand on voit que des gouvernements ( je cite l’Irak car c’est le plus facile et celui qu’on connaît l’en mieux) ont fait des guerres pour des raisons pas toujours tres nettes, ce qui les empêche d’en faire plus, certes, le budget (mais quand on a sa propre planche à billet et que l’argent de « reconstruction » va directement dans les poches de papa et ses copains..) ça ne rentre pas en jeu pour tout le pays, c’est surtout d’avoir des corps de retour au pays qui fait mal. Qu’une famille se fasse exploser par un Mq9, po grove, que ce même Mq9 se fasse descendre, po grove. Mais des jeunes qui ont donnés leurs vies pour le pay, dans une boîte avec un beau drapeau, ça la fout mal.
    Alors, quand demain, on pourra faire un avion avec le même poids, remplacer les 3m3 de cockpit par une soute à missile, que ce même avion pourra réagir à la mili nano seconde, avec des facteurs de charges bien plus élevés, que les problèmes d’altitude Pour son pilote, n’en sera plus, vous aurez des avions de chasse avec des AI. Et à la place de voir Macron réconforter les familles (aux invalides, c’est cela?) il y aura une banderole en bas de votre écran qui passera entre le prix du baril et le résultat France-Italie pour annoncer que deux avions de chasses se sont fait abattre, suivis du CAC40..
    Et cela s’applique a tout.
    Un char, idem. Quel gain de place si on vire 4 ou 5 hommes d’equipage et que seul le moteur et les processeurs doivent être sous blindage. Imaginer le gain!
    Allons plus loin que de prendre un f16 et d’y placer une IA. Prenons la Lybie. Mettez vous à la place de n’iLoiret quel pays, hors Turquie pour les raisons que l’on connaît tous. Vlad, Trump, Macron, qui sais je, se dis, j’enverrais bien des conseillers militaires ou des observateurs, mais faut des FS pour ces « missions » zut. Si ça tourne mal, même sans cocarde, on arrivera à remonter jusqu’à moi! Pas de bol.. un 5 ou 4 étoiles se pointe et dis, msieur le président, envoyons notre nouveau drone terrestre pour cette mission, si danger, il se fait petter tout seul à tel point qu’on ne saura pas remonter la piste et nous accuser, à la place d’un corps, un cratère béant sans la moindre trace d’un composant électronique..Vous pensez que cela ne serait pas tentant et tenté?
    A ne pas oublier non plus, que les Chinois (faut être communiste pour se permettre officiellement un tel « décompte ») ont une masse de 30 millions de jeunes hommes en trop. Trop c’ Pas le mot juste, ils peuvent se permettre de perdre 30 millions de jeunes hommes sans que cela ne touche en aucun cas leurs natalité, leurs productivité, rien, nada.
    Alors face à une nation, déclarée comme le nouvel ennemi à abattre, qui peut se permettre de perdre numériquement, je ne dis pas que cela ne posera aucun problème niveau familles, ect, mais c’est un chiffre réel, les robots-kamikazes ne sont pas une mauvaise solution et business is business, pour un plan Marshall 2.
    La ww2 c’est 60 millions de victimes, à la louche ? Par contre entre 38 et 45, c’est 18 millions d’hsommes allemands sous les drapeaux, c’est 18 millions d’hommes qui n’ont pas produit, pas travailler à l’effort de guerre. Imaginons devoir battre une nation de 1 milliard 200 millions d’âmes, qui peut se permettre de perdre des le début, 30 millions de ces jeunes dans une nouvelle grande guerre patriotique.. Un avion, un char, un soum-robot serait utile..

    • Félix GARCIA dit :

      Certes.
      Cordialement,
      Félix GARCIA

    • Caspip dit :

      Sauf que l’éthique de nos démocratie ne permettra pas cela. On aura toujours un opérateur.,, par contre je suis pas sûr que les chinois vont se gêner.,,

    • DodeoLedeo dit :

      Dans la guerre de l’espace, ce seront tous des robots…

    • EchoDelta dit :

      Evidemment que les robots vont progressivement supplanter les véhicules « habités » mais cela va se faire progressivement, en commençant par augmenter les assistances (il y en a déjà pas mal) et éliminer petit a petit les équipages. Mais il restera toujours des hommes dans certain avion ou véhicule pour le côté « humain » des populations.

    • Max dit :

      L’appareil industriel allemand de la Seconde Guerre mondiale a été alimenté en main d’oeuvre. Entre les esclaves par millions et le STO,. Sans compter les industries des autres pays contraintes à l’effort de guerre nazi !
      Les chinois sont riches de chair à canon tant que le parti unique contrôle les esprits.

    • lxm dit :

      On va devoir cloner et user du génie génétique pour compenser les pertes humaines dans la prochaine guerre mondiale, il faudra conserver de grandes bases de données génétiques, il faut commencer les prélèvements; évidemment, si personne ne veut la faire on ne la fera pas, mais on voit bien que plein de gens veulent une grosse guerre comme pour solder toutes les tensions, pour que tous les nationalistes et les génocidaires s’entretuent jusqu’au dernier, pour que le monde accouche d’une leader qui taise tous les conflits une bonne fois pour toutes. La guerre « physique » n’est que le prolongement de la guerre de tous contre tous en libéral-capitalisme dans les villes, et cette dernière est allée très loin dans le mépris de la vie humaine, on vire aujourd’hui, on censure, demain on tue ceux qu’on considère en trop et on fusille ceux qui parlent trop.

  9. Edgar dit :

    L’avantage dont jouit l’intelligence artificielle, dans l’atmosphère, en combat aérien, c’est la facilité avec laquelle elle peut collecter des informations. Amoindrissez cette capacité de collecte d’info, et vous la ferez bugger.

  10. Ricko dit :

    Il y a tout de même une grosse différence entre un simulateur et un combat réel : la fiabilité des informations.
    En simulateur, l’ordinateur à l’intégralité des paramètres de vol de l’appareil piloté par un humain. Il (l’ordinateur) peut donc choisir instantanément la solution la plus adaptée dans sa base de donnée.
    Le pilote lui ne peut pas avoir le même niveau d’information. Il est donc désavantagé.

    En combat réel, l’ordinateur n’aurait qu’une information très partielle et ne pourrait qu’estimer les paramètres de vol de son ennemi. Donc pour l’ordinateur tout dépendrait des informations collectées par ses capteurs… Et là il y a un monde entre le virtuel et le réel.

    • François dit :

      M’enfin Ricko, pensez vous que les parties prenantes de ce combats soient si stupides ?!!!
      Il est évident que l’IA dispose des seuls informations dont elle disposerait en combat réel et dont dispose également le pilote adverse.
      Sans cela ce combat n’aurait pas de sens, voyons !

      • Hector dit :

        Entièrement d’accord avec Ricko. Je dis exactement la même chose un peu plus bas.
        Personne n’a dit que les parties prenantes étaient stupides. On dit que le but n’était pas celui que vous (ainsi que d’autres lecteurs) avez compris.
        Sur les informations dont disposait l’IA, c’est confirmé par un professionnel qui s’est paluché le détail de cette expérience (https://www.youtube.com/watch?v=v4PNGkif1nw voir en particulier de 3′ à 3’20) : le programme disposait bien de toutes les données sur son adversaire en permanence et en temps réel. Et oui également, un pilote humain est handicapé dans une simulation. Il s’agit juste d’un show, frisant le grotesque et qu’il ne faut surtout pas surinterpréter.
        En plus dixit ce même professionnel, le pilote US a été particulièrement médiocre … Mais c’est une autre histoire …

        • Marc Mora dit :

          oui tout a fait, pour info le youtuber  » ATE  » est ancien instructeur sur rafale M

          Pas de quoi fantasmer pour l’instant, l’IA on en est encore très loin

    • E-Faystos dit :

      Capteurs qui sont brouillables et leurrables car à longue distance, c’est la détection radar qui règne en maître.
      Sur les avions les plus modernes, il y a une bulle de detection infrarouge à 360 degré plus haut plus bas. Ca fera toujours un substitut à la détection visuelle, tant que l’avion n’est pas dans les nuages.

  11. Jm dit :

    Mettre des contraintes aux pilotes et open bar à l’IA, ça va bien s’passer.
    Pourquoi ne pas autoriser la descente en dessous de 500ft?
    Pourquoi limiter les facteurs de charge pilote, alors que certains sont capables d’encaisser +10?
    Et pourquoi un F16?
    Il fallait que la machine gagne, et comme c’est écrit dans les autres commentaires, il y a de l’argent à gagner.
    Jusqu’au jour où les machines vont se retourner contre leurs concepteurs.
    Et là, vous verrez que l’intelligence humaine reprendra le dessus.

  12. Tabasco dit :

    Peut être qu’on finira par voir un T100…

  13. Max dit :

    A situation complexe, les algorithmes sont et seront toujours plus rapides que l’homme. A charge d’être dans le modèle préétabli.
    https://heronsystems.com/work/alpha-dogfight-trials/

  14. Gégétto dit :

    L’IA Supplantera l humain dans beaucoup de systèmes armés. Là où, finalement, l humain est le maillon faible (stress,fatigue etc.)
    Un engin, aux caractéristiques de vol inconcevables avec un humain à bord, deviendra du domaine du possible.
    Je vois bien, dans d’ autres domaines , une IA épauler l humain:Médical, recherche scientifique etc.;voire le remplacer:exploration spatiale.

  15. Royal Marine dit :

    Tout ce que l’on prouve par cet essais, c’est que l’IA utilisée et le pilote n’avaient pas les mêmes contraintes, puisque l’un devait respecter certaines règles devenues réflexes, et l’IA aucune… Pour prouver quelque chose, et mesurer si un pilote pouvait, ou non, être supplanté par des algorithmes, c’était, en dehors des problèmes d’étique, de contraindre l’IA a respecter les mêmes limitations physiques et techniques…
    Mais nous avons quand même une réponse… La courbe d’apprentissage du pilote semble être bien meilleure que celle du logiciel, puisque celui-ci résiste de mieux en mieux à chaque combat simulé…

    • joe dit :

      Oui mais au final il perd… et même si il arrivait à gagner une fois sur deux, il suffira de changer les algos et supprimer la contrainte « pilote humain artificiel » de l’IA. Plus de contrainte de G, hormis pour le matériel. Rien que cela ne permettra plus à aucun pilote humain de gagner.
      Si les constructeurs se mettent à faire des avions intercepteurs pure IA, sans emplacement pour le pilote, il pourront sensiblement augmenter la vélocité/réactivité de leur avion en réalisant des structures qui pourraient supporter plus de G qu’un intercepteur normal.
      Les combats se gagneront alors par l’électronique (mesures/contre-mesures/détection), la supériorité de nouveaux missiles et bien sur la capacité à produire ces modèles en nombre plus grand que celui de l’adversaire.

  16. Raymond75 dit :

    Ha non, non et non : je refuse de penser que l’intelligence d’un circuit imprimé serait supérieure à l’intelligence biologique d’un militaire !!! Mais ce brave militaire, lorsqu’il descend de son avion, est capable de rendre service à un collègue, de s’intéresser à la musique, d’éduquer ses enfants, voire dans des cas extrêmes d’avoir de l’empathie pour son prochain …

    Il n’y a aucune intelligence dans une machine,mais la capacité d’évaluer simultanément des milliers de situations dans un domaine très restreint et ultra spécialisé. Jamais une machine, aussi sophistiquée et coûteuse soit elle n’aura l’intelligence d’un combattant afhgan, capable de s’adapter à toutes les situations, d’endurer des conditions de vie proches de la survie, et de foutre dehors les Anglais au 19ème siècle, les Russes, une très puissante coalition occidentale, puis au final d’obliger les US à négocier leur retrait pour laisser place aux … Talibans.

    La différence entre une machine et un Taliban inculte, c’est la motivation (sans porter de jugement sur la cause défendue), c’est à dire le sentiment. Seul le sentiment est une valeur humaine …

    • philouze dit :

      « Ha non, non et non : je refuse de penser que l’intelligence d’un circuit imprimé serait supérieure à l’intelligence biologique d’un militaire !!!  »

      C’est ce qui te perdra.
      Un peu de modestie nous fera le plus grand bien et permettra de nous adapter. croire qu’on est meilleur par principe, et qu’on le restera, est une grave erreur de sous estimation d l ‘adversaire.

      Dans une attaque menée par une dizaine de pilotes humains contre une dizaine de machine de celles présentées ici on se serait fait éclater. On en est à 5 contre1 car il n’y a eu que 5 rounds, la vérité est peut être bien pire.

      Une IA finira toujours pas conduire mieux, jouer mieux aux échecs ou à n’importe quel jeu, mieux piloter et maintenant vaincre en combat a aérien.
      Et attention, si le Machine Learning demande d’énormes ressources en phase d’apprentissage, en phase de jeu vous pouvez diviser par 10.

      Au final un algo qui pilote n’est pas une machine qui joue aux echecs, mais il est tout à fait possible de concevoir des algos qui réunissent énormément de compétences (pourquoi pas des algos « éthiques » qui prennent des décisions en exploitant les décisions de plusieurs autres IA. spécialisées)

      J’aurais plus confiance de laisser mes gosses dans un us dirigé par une telle machine plutôt qu’au chauffeur gilet jaune du coin pas bien réveillé et pas fâché avec le ricard.

  17. J.C dit :

    Analyse d’un ancien pilote de Rafale M :

    https://www.youtube.com/watch?v=v4PNGkif1nw

  18. mustard dit :

    vidéo très intéressante d’Até, ancien pilote instructeur sur Rafale marine.
    En faite le pilote a fait toutes les erreurs possibles, tout ce qu’il ne faut jamais faire en dogfight, et meme répété à la manche 3 la meme erreur de départ de la manche 1 qui lui avait valu du perdre. Le pilote va meme jusqu’à se prendre du 9G virtuel durant plus de 1mn, chose qui n’est jamais fait en combat car un pilote s’en remettrait difficilement.
    Até avoue ne pas comprendre ce qu’à fait le pilote, tout est illogique, il n’a pas piloté comme un vrai pilote de combat, au point qu’il doute de la véracité de cette vidéo (la DARPA n’ a pas l’habitude de faire des vidéos de 5h pour montrer ces nouvelles technologies). comme si cette vidéo avait juste un but de montrer aux ennemis que les futurs avions des USA serait l’armée ultime.
    Il est vrai que lorsqu’on regarde cette vidéo, c’est douteux. tout semble faussé. Até dis que ce n’est pas digne d’un pilote et j epense qu’il a raison, c’est biaisé.
    https://www.youtube.com/watch?v=v4PNGkif1nw

  19. PK dit :

    Quelles sont les missions d’un appareil « de chasse » ?

    La veille aérienne avec mission d’interception. Il faut des yeux à un moment donné et donnez des ordres (AWACS, sol) pour diriger l’avion. On peut le faire faire éventuellement par une IA… Mais comment va-t-elle discriminer ? À quel moment pourra-t-elle ouvrir le feu (surtout si le pilote en face s’amuse, comme il est de coutume… et de mauvais goût de s’en étonner) ?

    La pénétration pour bombarder : en vol à HA, pas de souci à le faire faire par une IA… si rien n’arrive en cours de route (et notamment une interception par la chasse). En radada, c’est une autre histoire. Combien d’imprévus à gérer ?

    Pour faire du strike sur des barbus, on le fait déjà depuis des drones pilotés par le sol : l’automatiser complètement ne coûterait pas tant que cela (seul l’ordre d’attaque serait d’origine humaine).

    Je ne vois pas bien en quoi l’IA va changer les choses aujourd’hui. Que l’on assiste les pilotes, c’est déjà le cas. Qu’on les assiste davantage, c’est encore mieux (combien de pilotes oublie de basculer d’un mode de tir à l’autre en combat, oppressé par le combat et la dépense physique ?) et augmentera de façon sensible l’efficacité. C’est tout ce que pourra faire les IA aujourd’hui : améliorer la performance d’un avion piloté.

  20. Hector dit :

    Un humain a perdu contre l’ordinateur dans un jeu vidéo ? Oui, d’accord … et alors ?

    Juste une question au passage … Comment était simulée la perception de l’avion sans pilote ? Parce que dans la vraie vie, si on met le même programme dans un vrai F16, j’ai dans l’idée qu’il va falloir lui ajouter qqs caméras pour lui permettre de repérer, identifier, suivre, etc. son adversaire. Et ces caméras seront limitées en résolution, en portée, seront éblouies par le soleil, auront des angles morts, perdront la trace de l’adversaire selon l’efficacité de son camouflage, etc.

    Qu’en était-il dans ce « jeu » ? Je parie que le programme était omniscient, autrement dit, avait accès en permanence et en temps réel à la position, le vecteur vitesse, l’attitude, etc. de son adversaire pour adapter ses manoeuvres sans le moindre doute. Avantage considérable qu’il n’aura pas dans la « vraie vie ». A l’inverse, dans une simulation, le pilote humain est handicapé par la résolution de l’écran, la limitation des mouvements de tête (même avec un dispositif de VR), le rendant notoirement moins efficace qu’en plein ciel (ceux qui pratiquent les simulations de vol comprennent de quoi je parle).

    Ceci dit, contrairement à certains lecteurs (à en juger par les commentaires), la DARPA ne s’y trompe pas puisque le but n’est pas de remplacer l’humain mais de faire (je cite) « un pas de plus vers la réalisation d’une interface homme-machine efficace pour le combat aérien ».

    • François dit :

      Même réponse pour vous que pour Ricko …

    • Patrice dit :

      Tout à fait d’accord avec vous et …
      En complément de « ate » Huet …
      On pourrait ajouter à ce simulacre (et non pas simulation) que :
      Le pilote n’était pas dans son cockpit mais dans un simulateur bas de gamme avec
      – Lunettes de Réalité Virtuelle au lieu d’un vrai environnement, voire un simulateur 210° horizontal (je n’en connait pas en vertical)
      – Aucun retour d’information kinestesique (simulateur approchant sur vérin par exemple),
      Aucun retour sur le niveau d’engagement du pilote (cardio, oculométrie et autres) pour nous dire s’il s’amuse, fait semblant, ou fait son maximum … ?).

      Pour ce qui est des tests :
      – Aucune analyse des scénarios retenus par des pilotes neutres pour connaitre la représentativité des situations « jouées » par exemple quelles probabilités que le combat se fasse en 1 contre 1 ???
      – Aucun mode dégradé : ciel bouché, panne …
      – Etc.

      On pourrait même aller creuser un peu plus côté mise en situation du pilote ;
      – Quand a-t-il volé la dernière fois sur F16, contre quels types d’appareils a-t-il combattu,
      – Combien d’heure d’entrainement sur ce simulateur a-t-il fait ?
      – Quelles était les capacités du simulateur bas de gamme : réactivité des commandes, etc.

      Bref, tant qu’on ne intéressera pas plus aux conditions des tests on pourra toujours leur faire dire ce que l’on veut.

      • vachefolle dit :

        Pour ce qui est de la reconnaissance d’image, l’IA a deja fait des progres enormes, et en réalité la machine aura des avantages autres bien plus importants face a l’Humain : Capacité de supporter des G supérieurs, utilisation d’autres capteurs, ZERO fatigue, temps de réaction supérieurs….
        Même si le test n’est pas concluant aujourdhui, il l’est suffisament pour ce dire qu’a 10 ans le « pilote » aura l’option « Auto-DogFight », pour laisser la machine faire son job, et qu’il reste en tant que spectateur.

  21. Pierro dit :

    A priori, c’est surtout Banger (le pilote humain) qui n’a été mauvais.
    Analyse par un ancien pilote de SEM et Rafale M…
    https://youtu.be/v4PNGkif1nw
    Ça éclaire d’un jour différent la « performance » de l’IA.

  22. Nostradamus dit :

    Par contre le truc qui me fait un peu peur avec les machines à tuer autonome , c’est le risque de piratage. Tu peux avoir la plus grosse armée de ces machine, si quelqu’un prend la main dessus, tu es foutu.

  23. Luc dit :

    À quand un officier système d arme type R2d2… Le changement c est maintenant

  24. Castel dit :

    Ce n’est pas nouveau, on sait bien que l’intelligence artificielle, mais dans un secteur bien défini est capable de battre n’importe quelle homme, vu qu’elle est élaborée par des équipes, chacune très performantes dans leur domaine…
    Une anecdote amusante, non militaire à propos de celle-ci, mais qui me semble valoir son « pesant de cacahuètes »:
    Après avoir battu en finale une énième fois Valery Karpov au championnat du monde des échecs, Gary Kasparov, rencontra pour un match exhibition, la championne féminine de l’époque, à savoir Judith Polgar, qu’il battit sans problèmes, bien que celle-ci lui offrit une belle résistance, en lui imposant plusieurs nulles, sans arriver toutefois à le battre une seule fois.
    Après la rencontre, il se permit de déclarer : « le jeu d’échec n’est pas fait pour les femmes, car elle ne peuvent pas rester plus d’un quart d’heure sans parler  » !!
    Mais pour que la boucle se termine, il lui restait à battre le champion des ordinateurs de l’époque qui s’appelait alors « Deep Blue 2 »
    Le résultat fut sans appel, puisqu’il se prit un monumental 4-0, sans même obtenir la moindre partie nulle face à cet ordinateur !!
    Mais c’est vrai qu’un ordinateur n’a pas besoin de parler lui !!!!

    • Castel dit :

      Après vérification, le score n’a pas été aussi sévère que celui que j’ai annoncé, puisque le résultat avait été 3,5 – 2,5
      Mais peu importe, l’ordinateur , à l’époque à réussit à « clouer le bec » à un joueur qui de croyait imbattable !!

      • PK dit :

        Le problème des échecs (à l’époque) n’avait rien à voir. Il fallait trouver une machine capable de calculer assez de coups pour être supérieurs à un être humain. Il a fallu attendre Deep Blue pour cela (et bien plus tard pour le jeu de go, dont les combinaisons sont bien plus grandes que celles des échecs).

        Ici, on parle d’IA par apprentissage. Ça donne de biens meilleures résultats que l’algorithmie pure (qui dépend de la qualité du modèle mathématique et de son implémentation par programme). D’ailleurs, les IA d’échec sont bien plus balèzes que Deep Blue, en étant moins puissante ! Tous le travail est fait en amont (l’ordinateur se contruit un modèle tout seul, pour simplifier grossièrement, et se sert de ce modèle pour battre son adversaire. Ce modèle est construit à partir de milliers (millions) d’exemples réels).

  25. UnKnown dit :

    3 merge kill (qu’on cherche toujours à éviter dans le combat en BFM-donc forcément l’IA est supérieure dans cette situation de combat)
    1 kill avec une erreur grossière du pilote américain
    Le dernier kill avec le pilote américain qui fait juste de la figuration.
    Bof bof ce combat.
    Aucune utilisation du plan vertical par le pilote américain (donc pas ou peu de conversion d’énergie) c’est à dire qu’il a littéralement combattu en 2-D. Soit il a eu des instructions, soit le niveau du BFM à l’américaine s’est dramatiquement effondré depuis les années 80.
    https://www.youtube.com/watch?v=v4PNGkif1nw

    • UnKnown dit :

      Ce qui serait cohérent avec le combat Rafale vs F-22 d’il y a quelques années.

  26. Le Glaude dit :

    Nous demandons à ce que « ATE » fasse un combat contre cette IA . ^^

  27. Luc dit :

    John Mac laine sort de cette Intelligence Artificielle…

  28. sgt moralés dit :

    « Dis papy tu faisais quoi quand t’étais jeune?_j’étais pilote de chasse!_tu étais guide de chasse?_ non j’étais dans l’avion et je le pilotais!_ça existait comme mêtier!!? »

  29. Richy dit :

    Voir Isaac Assimov les règles concernant robots Toujours d’actualité

  30. Themistocles dit :

    Pourtant, l’intelligence artificielle, c’est plutôt le domaine de l’École de Guerre

  31. vachefolle dit :

    L’IA sera trés forte dans des domaines opérationnels militaires lorsque la situation peut etre simulée avec réalisme. Dans ces cas l’ordinateur est capable de s’entrainer en jouant contre elle-même pendant des jours, et en selectionnant au fur et a mesure les meilleurs parametres. C’est la technique de DeepMind (apprentissage par renforcement) pour le Go ou les echecs. Paradoxalement c’est possible de faire ces simulations dans un environnement sans 3D contrainte en DogFight 1 contre 1. Mais certainement plus complexe avec une multitude d’intervenants ou en Terrestre. pas de données = pas d’IA.

    Quand on trouve comme excuse au gain de la machine que l’Homme a fait des erreurs… c’est bien le problème.
    L’homme en situation de stress ou de fatigue fait toujours des erreurs a un moment ou un autre !

    Mais clairement le Drone Volant de combat avec IA est dans les tuyaux et est technologiquement a portée.