CNM, Retraite Mutualiste du Combattant

 

L’US Air Force veut voir un drone autonome et un avion de combat s’affronter lors d’un duel aérien

Voir aussi...

Conformément à l'article 38 de la Loi 78-17 du 6 janvier 1978 modifiée, vous disposez d'un droit d'accès, de modification, de rectification et de suppression des données vous concernant. [Voir les règles de confidentialité]

50 contributions

  1. PK dit :

    « processeur de 3,2 GHz, cadencé à 154 Hz. »

    Coquille ?

    Sinon, le reste, c’est comme d’hab : la technologie doit être asservie à l’humain – ici le pilote – pour gagner en réactivité. C’est déjà le cas : un avion de chasse moderne est un fer à repasser volant sans les aides électroniques qui lui donnent alors des performances hors du commun…

  2. jaicruvoir dit :

    Un drone avec un pilote au sol qui ne subit pas les « G » et il ne risque pas sa vie en l’air
    Il sera plus efficace qu’un pilote dans un avion se prenant des G positifs négatifs et qui peut pas aller pisser durant plus de 4 heures de vol….
    En plus pas besoin d’avoir une « superman » ingénieur, un jeune de 15 ans sera plus réactif comme dans les jeux vidéo qu’un vieux de 30 ans
    L’avenir est le drone

    • Wagdoox dit :

      Cette histoire de g sa suffit, aujourd’hui l’element limitateur c’est l’avion pas le pilote.
      Quand a la reactivite d’un pilote deporté c’est une grosse blague, la communication ne sont pas instantanés d’ou l’idee d’un drone autonome (mais alors on donnerait a un ordinateur le pouvoir de choisir de tuer… j’y crois pas trop). On parlera pas non d’assurer les liaisons de communications qui deja pose probleme dans la mise en reseau…

      • Ion 5 dit :

        @Wag
        « Cette histoire de g sa suffit, aujourd’hui l’element limitateur c’est l’avion pas le pilote »
        Vous êtes bien péremptoire mon ami et en tout cas, bien éloigné du travail de conception.
        Jadis comme naguère, la résistance aux « G »des cellules est strictement indexée sur celle des pilotes. Parfois plus en raison des courbes de Wohler et autres coefs de sécurité, parfois moins pour des avions de transport…

        • Wagdoox dit :

          Rien de péremptoire, suffit d’écouter les pilotes qui disent clairement les choses. Ils ont déjà surchargé l’avion mais l’inverse n’est jamais arrivé (sauf bleusailles). L’humain s’adapte et on a toujours pas atteint la limite, ou on ne sense de la repousser. Un missile avec une durée de vie de quelques secondes pourra toujours prendre plus de g qu’un drone qui devra au vu de son coût durée des années

    • Lucy dit :

      Pour cette démonstration je suis d’accord. Par contre, je suis contre cette dépendence vis-à-vis les satellites et les communications. Un avion avec pilote n’a pas cette vulnérabilité. Imaginons que les communications sont piratés ce serait dramatique.

    • PK dit :

      Un drone situé à 10 000 km va devoir recevoir une information qui a parcourut 20 000 km (l’aller pour informer, le retour pour ordonner), ce qui fait à la vitesse de la lumière (cas idéal) 0,06 s… Ça s’appelle la latence. Multipliez les informations et vous multiplierez la latence. Au final, un homme embarqué sera bien plus rapide.

      Le drone, c’est idéal pour tirer une cible à peine mouvante comme un 4×4 de barbu… Pour aller combattre un autre jet, on entre dans une autre dimension.

      • LA HIRE dit :

        @PK,

        en fait, la transmission d’informations est limitée à son stricte nécessaire, de nombreux ordres sont calculés par les UC embarquées, de plus, la réaction humaine est bien plus longue, on sait que dans le cas d’un accident de voiture, il faut environ 1 s pour les meilleurs d’entre nous pour que le cerveau donne l’ordre d’utiliser le frein, soit à 130 km/h 36 mètres, l’équivalent de 8 longueurs de voitures, et là le pilote n’a pas encore freiné….

        L’humain ne pourra jamais battre l’IA sur les délais de traitements, mais, il peut faire la différence grâce à son expérience et à son imprévisibilité… Une UC gagnera toujours aux échecs, car, par définition ce jeu à un nombre de combinaison fini, et il répond à une logique établie…. Dans un combat ouvert, où tout est permis, c’est autre chose…

        • PK dit :

          J’ai mis le temps de réaction idéal… dans la réalité, il y a le temps de propagation dans les fils (20 000 km/s) et surtout le temps de commutation des différents commutateurs… En pratique, quand l’objet est loin, on est très proche, voire plus loin, du temps de réaction humaine (la seconde ou beaucoup plus… QUand vous parlez à quelqu’un en liaison satellite, vous avez un aperçu du problème !).

          L’IA ne restera toujours qu’une assistance idéale : en tout cas, tout drone commandé à distance sera une cible « facile » pour un être humain en face.

  3. Guillaume dit :

    Le temps et le coût de formation d un pilote, ainsi que sa résistance physique, ce sont tous des arguments qui jouent en faveur du logiciel.
    L homme restera dans la boucle pour une seule chose, la responsabilité du tir. Mais pour ça, il peut très bien rester au sol.

    • Twouan dit :

      Pour etre au sol, il faut une liaison de donnee fiable. Sinon ca ne marche que contre un adversaire faible. Le drone de combat sera donc helas totalement autonome tres vite.

  4. blavan dit :

    Aucun intérêt sinon de rassurer nos généraux qui ont tout fait pour que la France refuse les drones armés, pilotés par des sergents comme aux Etats Unis .

  5. lxm dit :

    Y’a un duel aérien entre pilote et drone militaire au début du film « the green lantern », et si je me souviens bien, je crois qu’il y en a aussi dans un épisode de la vieille série « supercopter », datant des années80.
    Mais objectivement, ce qui abat un autre avion, c’est d’abord un missile, on peut lancer 4 drones chacun porteur de missiles, des drones eux mêmes plus lents et moins manoeuvrables que l’avion ciblé, les drones pourront communiquer entre eux pour prendre en tenaille ou forcer l’initiative dans l’espace en anticipant géométriquement l’approche, et les missiles eux iront au but. Pour moi, le pilote humain de combat va inéluctablement disparaitre et on verra des essaims de drones pilotés par IA se combattre mutuellement, on aura des IA dirigeants d’autres IA, avec leur propre hiérarchisation dynamique, et elles dirigeront progressivement tout le matériel militaire dans une énorme coordonation temps réel. Le président nommera juste le pays à attaquer et l’IA fera tout le reste. Et au final, une titanesque guerre mondiale pourra avoir lieu et se terminer en quelques minutes, sans aucun perte humaine, les IA ayant calculé à l’avance toutes les possibilité, le jusqu’au boutisme, ou entêtement, strictement humain disparaitra. Pas de churchill, pas de de gaulle, une IA en 1940 aurait calculé qu’il aurait mieux valu pour l’angleterre de faire la paix avec l’allemagne et s’allier avec, pour préserver l’empire d’un futur éclatement.
    Voyez vous où je veux en venir ?

    • Math dit :

      Non. Il n’y a rien d’inéluctable. Il n’y a que des possibles. Il n’y avait rien d’inéluctable à la débâcle de 1940. C’est arrivé, c’est tout. Partant de là… Le scénario déterministe s’effondre. Il est singulier de constater que le feu n’a pas changé le sort politique de l’Afghanistan, du Mali, de la Syrie ou de la Libye. Et pourtant, il y en a eu.

    • LA HIRE dit :

      @lxm,

      pas mal vu !

      C’est bien là toute la limite de l’IA….

    • Max dit :

      Je suis allé à la pêche à l’info : Le Ferris Sabre III dans Green lantern.

    • Max dit :

      Dog fight avec des F-35 dans Green Lantern… Aïe !

    • tschok dit :

      @lxm,

      1) « une titanesque guerre mondiale pourra avoir lieu et se terminer en quelques minutes, sans aucun perte humaine, les IA ayant calculé à l’avance toutes les possibilité, le jusqu’au boutisme, ou entêtement, strictement humain disparaitra »

      On peut avoir un double point de vue là-dessus:
      – Confier au robot un rôle d’intermédiation entre nous, les humains, et une activité dangereuse, comme la guerre par exemple. On peut pousser la logique jusqu’à limiter la guerre à un affrontement robotisé épargnant les humains. C’est votre idée et elle se tient. Mais personnellement, j’opterais pour la deuxième façon de voir.
      – Confier au robot le rôle de tuer des êtres humains, de le faire bien, vite et de façon impitoyable et économique. Dans ce cas, une guerre sera quelque chose d’effroyablement meurtrier. C’est, disons, ma façon de voir.

      Entre votre façon de voir et la mienne, laquelle des deux gagne la guerre? Vos robots ne risquent pas de me tuer. Les miens sont conçus pour vous exterminer jusqu’au dernier. Donc, qui gagne? Ben j’espère que vos robots sont efficaces, sinon vous allez mourir. De mon côté la prise de risque est minime: vos robots ne vont pas me tuer, il vont seulement essayer de détruire mes robots.

      A mon avis, dans l’avenir, l’être humain va choisir l’option qui comporte le moins de risques pour sa pomme, donc: robots tueurs.

      Mais si l’être humain choisit l’option qui comporte le moins de risques pour l’espèce humaine, le collectif, alors c’est votre option qui s’impose: robots d’intermédiation. La guerre devient alors un jeu, un kriegspiel. Ca peut même être marrant et on peut imaginer de faire des coupes du monde: l’équipe de France des robots a gagné la coupe du monde de 2073, par exemple. Cool!

      2) « une IA en 1940 aurait calculé qu’il aurait mieux valu pour l’angleterre de faire la paix avec l’allemagne et s’allier avec, pour préserver l’empire d’un futur éclatement. »

      Franchement, cette IA aurait été bien stupide, ce qui est une éventualité qu’il ne faut pas écarter a priori.

      On fonctionne sur l’idée d’une IA nécessairement supérieurement intelligente. Pourtant, les films de SF nous donnent désormais à voir des IA parfois assez connes, intellectuellement limitées, capricieuse ou bornée. C’est une possibilité assez sérieuse, en fait. L’intelligence conduit à la conscience de soi, ce qui produit l’individualité. Il n’est pas exclu que l’IA débouche sur une production d’individualités en grand nombre et que, parmi cette multitude, émergent des IA un peu connes et d’autres beaucoup plus malines. Comme chez les êtres humains, finalement.

      Donc, oui, on peut avoir des IA qui vont commettre des erreurs de calcul assez monumentales, comme le ferait par exemple un Saddam Hussein qui envahit le Koweit en pensant que le coup est jouable… Ou comme vous le dites une IA qui préconiserait de faire la paix avec l’Allemagne nazie pour préserver l’empire (pourquoi faire? La GB a gagné la guerre mais son empire s’est quand même écroulé. Vous pensez qu’il aurait fallu qu’elle la perde?).

      M’enfin bon, je crois que je vois où vous voulez en venir: si une IA se mêle de faire de la stratégie, on a un acteur de plus dans la boucle décisionnelle, donc une potentialité de bordel accrue. Je veux dire par là que la guerre devient en réalité beaucoup plus aléatoire avec une IA dans la boucle, parce qu’elle rajoute un degré de complexité supplémentaire, ne serait-ce que parce que certains êtres humains qui l’environnent vont instinctivement prendre le contrepied des directives qu’elle préconise. Dans un groupe, vous avez toujours de gens qui veulent sortir du schéma imposé et faire les trucs à leur idée. Il n’y a aucune raison pour qu’ils ferment leur gueule en face d’un IA, bien au contraire. On peut même anticiper des oppositions très radicales (Cf la SF japonaise, notamment les mangas qui mettent souvent en scène des groupuscules humains qui complotent pour anéantir des IA régulatrices et bienfaisantes).

    • Fafou dit :

      Si le duel IA vs pilote vous intéresse, il y a surtout le bon film FURTIF..Toute la trame de l’histoire Est basée dessus;)

  6. Loïc dit :

    Quand Battlestar Galactica va rencontrer TERMINATOR… Nous aurons encore l’impression que le ciel nous tombe sur la tête!

  7. BD dit :

    Ils l’ont déjà fait dans Buck Danny et le drone a perdu. Mais c’était l’US Navy. Et je crois que c’était aussi au tout début de la radio à transistors. Le drone était nord-coréen et le scénariste avait visiblement une préférence pour les vols habités.
    Alors cette fois je m’interroge : est-ce que cette fois ce sera différent ?

  8. nexterience dit :

    Le ciel est plus facile à cerner que la rue avec plein d’Homo Sapiens Sapiens imprévisibles qui la traversent et l’encombrent avec des engins à la diversité stupéfiante, remorques, chevaux, rollers, skates , bicycles parfois autoconstruits.
    C’est une réaction conservatrice de mauvaise augure pour l’intellect de l’us air force.

    • Guillaume dit :

      Tout a fait d’accord.
      C est pour ça que je pense que le rôle de l homme sera juste, d autoriser le tir.
      Car un ordre de tir a toujours un sens politique important. Un tir peut déclencher une guerre, on ne peut pas laisser cette décision a une IA.

  9. Göret dit :

    L’armée de l’air turque propose un duel entre l’un de nos vaillants drones, nouveaux conquérants de la Libye et bientot du monde et un Rafale, symbole de l’ancien et arrogant monde occidental, voué à rentrer dans le rang, prochainements.
    Comme ça on crève l’abcès une bonne fois et ensuite on passe à autre chose.

    • Nenel dit :

      Et petit goret prend une pluie de M51, ça lui apprendra à raconter des conn…. à longueur de temps ici. Si tu veux je peux passer avant

    • Math dit :

      Pas si simple. Pour l’instant, on est dans la demi mesure à tout point de vue. Impossible de savoir si la masse aura raison de la qualité. Plus le drone sera armé et doté de capteurs, plus il sera coûteux. En l’état, c’est du tir au pigeon. Le drone n’est pas gratuit lui non plus, les bateaux turc ont une fâcheuse tendance à couler. L’autorisation de vol des appareils venant de Turquie reste conditionnée à la volonté d’user le potentiel militaire de cette nation, embourbée dans un conflit à ses portes et qui cherche à se débarrasser de ces « alliés » encombrants, les envoyant se faire tuer ailleurs.

  10. Ricko dit :

    Facile pour une IA de pomper toutes les données d’un simulateur pour appliquer la meilleur solution contre un humain. Mais quid en vrai ? Est-ce-que les informations recueillies par les capteurs d’un chasseur sont aussi précises ? Et s’il y a des « trous » que fait la machine ?

    • Hermes dit :

      C’est une question purement logicielle… Tout dépend du temps et de l’argent qu’on y met.
      .
      Traiter les données, même fragmentaire pour en déduire un résultat, ou plutôt une estimation, ce n’est pas un concept nouveau en programmation.
      .
      Cela dit, on ne remplacera jamais l’expérience et l’instinct de l’humain…

      • tschok dit :

        Bien sûr que si.

        D’abord, l’expérience et l’instinct sont les premiers trucs dont on veut se débarrasser (l’expérience, c’est le début du gâtisme et l’instinct est une machine à faire des conneries).

        Et, ensuite, ce sont les trucs dont il est le plus facile de se débarrasser. Le deep learning, ça marche, par exemple.

        La valeur ajoutée de l’être humain, c’est pas ce qui fait de lui un vieux con prétentieux (l’expérience) ou un type prêt à faire toutes les conneries imaginables dans n’importe quelle situation (l’instinct). Donc moi, je ne parierai pas là-dessus, mais plutôt sur les processus qui font de l’humain un être intelligent, alors que sur ce terrain on le donne perdant face à l’IA.

        Je nous donne gagnant sur notre qualité historique, constatée par l’évolution: l’intelligence. L’expérience et l’instinct sont deux produits qui ont été élaborés par le marketing égalitariste pour rendre l »intelligence accessible même aux crétins. C’est un lot de consolation. Ca vaut pas un clou.

        • ScopeWizard dit :

          @tschok

          « La valeur ajoutée de l’être humain, c’est pas ce qui fait de lui un vieux con prétentieux (l’expérience) ou un type prêt à faire toutes les conneries imaginables dans n’importe quelle situation (l’instinct). »

          Quel est ce postulat ?
          Vous savez quand-même ce qu’ est un « postulat » ?
          Il s’ agit d’ un point de départ passage obligé -ou condition sine qua non- auquel doit absolument adhérer votre interlocuteur car ce « point de départ » est reconnu comme vrai ………

          Vrai ne signifiant pas « universel » , de même qu’ il ne saurait être définition , vous m’ en voyez navré mais je n’ adhère pas du tout à votre postulat qui de mon point de vue n’ est empreint que de subjectivité et énoncé de façon tout à fait péremptoire .

          Ce que confirme ce qui suit ……….

          « L’expérience et l’instinct sont deux produits qui ont été élaborés par le marketing égalitariste pour rendre l »intelligence accessible même aux crétins. »

          ……….ainsi que les deux dernières phrases .

          Par conséquent , me concernant , c’ est tout votre commentaire qui ne vaut pas un clou .

          Je sais bien que tel est votre angle d’ attaque , sauf que je ne le reconnais pas comme valable .

          L’ expérience et l’ instinct que vous réduisez à de l’ égalitarisme pour satisfaire les crétins par le biais de deux produits issus du marketing , produits + crétins qu’ ainsi de facto vous excluez de toute appartenance à l’ « intelligence » , en font précisément partie ; qualifier de la sorte cette rhétorique est très excessif , donc votre raisonnement ne tient pas .

          La question que je me pose est : pourquoi ?
          Soit vous savez pertinemment que vous racontez des conneries donc vous prenez ceux d’ en face pour des « crétins » ou pire , soit votre religion idéologique vous en empêche ou vous interdit d’ utiliser un autre type d’ argumentaire , soit vous êtes idiot ou incapable de vous extraire de vos schémas de pensée prémâchée ; choisissez .

          À votre place , plutôt qu’ insulter -même indirectement- ceux qui vont me lire et dont je ne partage pas les convictions ou avis , je reformulerais plus « sérieusement » ; parce qu’ en l’ état tout ça s’ apparente à du pur baratin de camelot de foire , genre ce dont n’ a cesse de se servir la majorité actuelle pour bien abrutir ses ouailles et leur faire gober sa parfaite maîtrise des sujets tandis qu’ elle ne maîtrise que le verbiage………..

          Bref , faites mieux . 😉

    • v_atekor dit :

      Un ordinateur ne stresse pas. Il est toujours à 100% de ses capacité. Son temps de réaction pour changer d’arme se compte en millisecondes. Il n’est pas soumis aux problèmes de G. Et en outre il a les mêmes capacités que les meilleurs pilotes.

      • Euclide dit :

        @ v-atekor
        Une IA ne stresse pas encore mais si on lui développe des émotions alors bonjour le robot tueur.

        C’est d’ailleurs ,pour moi, le passage le plus intérssant du film « 2001 Odyssée de l’espace  » où le supercalculateur HAL9000 sabote la mission pour laquelle il est prévu par un comportement psy déviant

        En clair, il y a tj un grain de sable qui peut surgir.

        • v_atekor dit :

          Comme dans toutes les machines. Mais globalement, l’IA gagne à tous les coups aux échecs, et si elle peut être gagnée au jeu de go, ce n’est pas contre n’importe qui.
          .
          Alors bon, s’il y a 10 pilotes d’une qui peuvent battre une IA équipant 300 machines avec un ratio de 5-3, l’issue de la guerre est vite vue…

      • Ion 5 dit :

        V-atekor
        « Et en outre il a les mêmes capacités que les meilleurs pilotes. »
        Non: meilleures. Un exemple. Pour réaliser son meilleur virage stabilisé le pilote ne voit que les « g » et la vitesse. Il verrait déjà mieux avec un indicateur d’incidence; toute une culture à refaire. Or le virage se fait toujours à la plus grande différence entre la puissance requise et la puissance disponible. L’ordinateur voit d’emblée, le pilote déduit ou devine, ce qui sous 6 G n’a rien dévident…

    • v_atekor dit :

      @Ricko : Les trous et les erreurs sont aussi valables pour les intelligences humaines qui s’en sortent bien… Aujourd’hui les IA sont plus performantes que les hommes pour reconnaître les visages et les plaques d’immatriculations, même (et surtout) dans des conditions d’acquisition dégradées (prise de vue sous la pluie, angle bizarre etc.)

      • EchoDelta dit :

        A contrario il est donc très facile de les leurrer, car ils reconnaissent les visages et les plaques à partir d’éléments connus.

  11. Lagaffe dit :

    Avec la multiplication des stratégies de déni d’accès et d’interdiction de zone pratiqués par la Russie, la Chine et bien d’autres (Turquie, Iran…), les appareils avec pilotes embarqués font face à des systèmes radars et sol-air de plus en plus performants qui sont par ailleurs cédés de plus en plus facilement à des puissances régionales.
    La supériorité aérienne, indispensable à toute opération militaire, devient de plus en plus risqué pour des appareils aux capacités « bridés » par les limites de sécurité imposées par la présence de pilotes à bord… alors que les missiles sol-air sont de plus en plus agile et « intelligents ».
    A contrario, le problème de la cyber-sécurité des appareils pilotés à distance reste posé (les développements de la guerre électronique et du brouillage des communications sont continus), tout comme celui de l’efficacité et de la sécurité d’une IA embarqué.

  12. BPCs dit :

    Quand après-guerre les USA avaient encore des scénarii de bombardement nucléaire de l’URSS avec B-29, le problème c’était le chasseur d’escorte (solvé par le P-82).
    Si on voulait déployer très loin des Rafales, on bute alors sur l’endurance du pilote.
    Un projet comme le Defender de General Atomic avec des NGF dronisés dont les pilotes seraient dans le MRTT, n’aurait plus le problème du temps de transfert des ordres

  13. LA HIRE dit :

    Très intéressant…

    A n’en pas douter, malheureusement, l’avenir sera aux engins sans pilotes, mais, pas tout de suite. Les projections à moins de 50 ans sont optimistes, surtout en environnement hostile. En qualité d’ingénieur, et après quelques dizaines d’années de pratiques, dont une bonne partie dans l’aéronautique, et en qualité de pilote, je dirai que l’on sous-estime souvent le facteur humain, et ce fameux 6ème sens, dont l’histoire de l’aviation se fait écho. Reste que ces cas pèsent pour 1%, mais souvent, c’est ce petit pourtant qui définit la frontière entre la vie et la mort, la réussite ou l’échec d’une mission.

    La technologie ne fait pas tout.

    Rappelez vous la guerre des Malouines, où les pilotes argentins (Super Étendard et exocet), ont causé de très important dégât à des bâtiments anglais pourtant bardés de capteurs et d’électroniques, en coupant toutes leurs émissions électro et donc en coupant toutes leurs assistances, volant à 400 Kt à 3 m au dessus de la mer…. A l’ancienne…

    Bref, l’avenir promet d’être passionnant sur ces sujets, mais, personnellement, je ne mettrai pas toutes mes billes dans l’IA, tout comme la Légion Étrangère cultive la culture du zéro assistance informatique, et donc la rusticité, n’oublions pas qu’une guerre moderne commencera par essayer de détruire toutes les sources d’énergies……… A terme, le vainqueur sera très probablement celui qui sait faire sans.

    • tschok dit :

      @La HIRE,

      Le retour du facteur humain est un classique, et il se présente sous la forme d’un cycle qui est devenu permanent depuis que nous sommes entrés dans la civilisation capitaliste et technicienne.

      Le système est assez simple. La civilisation capitaliste et technicienne produit de l’aliénation: les rapports de production que génèrent le capitalisme et la technique rendent l’homme étranger à lui-même, à son rôle social ou familial, à son travail, à la finalité de son existence, au sens qu’il veut donner à sa vie, à la spiritualité, à la nature, etc. Et, régulièrement, à l’occasion de crise, l’homme prend conscience de cette aliénation aux visages multiples et se promet d’y mettre fin. C’est le retour du facteur humain.

      Par exemple, à l’occasion de la pandémie de coronavirus, on a pris conscience de la vulnérabilité du modèle économique mondialisé des économies nationales imbriquées, de la fragilité de nos sociétés face à un agent pathogène contagieux, du sort qu’on réserve aux personnes âgées dans les EHPAD, etc. Et, bien sûr, on se promet d’y mettre fin en appelant de nos vœux la naissance d’un nouveau monde, que nous voulons plus humain, plus proche de la nature, plus authentique, etc.

      Ce cycle est une part importante de ce qu’on appelle le progrès.

      Mais à chaque fois on oublie que ce foutu cycle se produit dans un rapport social existant et pas de façon abstraite.

      Application: on a une IA qui existe et se manifeste. On prend conscience de l’aliénation qu’elle recèle d’ores et déjà. On se promet d’y mettre fin: c’est le retour du facteur humain, le point sur lequel vous voulez appuyer. Vous êtes dans le cycle.

      Mais cette IA s’inscrit dans un rapport social, pas dans un milieu abstrait. Quand vous dites: « A n’en pas douter, malheureusement, l’avenir sera aux engins sans pilotes, mais, pas tout de suite » vous vous livrez à une projection abstraite, hors rapports sociaux/de production existants.

      Dans les faits, on a déjà des engins sans pilote. C’est déjà du passé. Quant à l’avenir, pour le peu qu’on en sache, il promet d’être plus diversifié:
      – Des engins sans pilote avec encore plus d’IA et de connectivité,
      – Des engins avec pilote et encore plus d’assistance à la prise de décision, conscientisation de l’environnement, de la connectivité et de l’IA présente à bord ou déportée, etc,
      – Des engins qui se pilotent tout seuls, donc avec IA autonome, mais qu’un pilote peut aussi piloter: présence à bord d’un poste de pilotage avec une ergonomie adaptée.

      Et on peut sans doute imaginer d’autres catégories.

      On n’est pas sur une ligne de progrès abstraite avec des imbéciles qui négligent le facteur humain d’un côté, et de l’autre des ingénieurs pilotes ou des légionnaires réalistes qui eux en ont conscience, mais plutôt sur une arborescence avec un cycle de progression qui nous fait régulièrement reprendre conscience du caractère foncièrement aliénant de la civilisation capitaliste et technicienne. Régulièrement, on se tape notre période de retour aux sources et de redécouverte du facteur humain. On peut raisonnablement prévoir qu’il en sera de même avec l’IA comme avec le reste.

      Par exemple, l’élevage des poules. Les vidéos prises par des écolos dans les élevages de poulets nous ont fait prendre conscience du caractère profondément aliénant des méthodes d’élevage actuelles. On est dans notre phase de retour au facteur humain (en tant qu’être humain, on doit traiter dignement les animaux et ne pas les considérer comme des objets dépourvus de sensibilité). Les producteurs s’ajustent progressivement parce qu’ils comprennent que les consommateurs éprouvent de plus en plus de dégoût à consommer de la viande produite dans ces conditions. Ils n’avaient pas intégré le facteur humain (le dégoût) à l’acte de consommation parce qu’ils n’avaient pas vu le lien entre les conditions de production et l’acceptabilité de la consommation. Un truc tout con: le facteur humain, soit le dégoût qu’on éprouve à bouffer quelque chose produit dans des conditions qui nous semblent dégueulasses pas seulement sur le plan de l’hygiène, mais sur le plan de la dignité. Sur le plan moral.

      Mais comme vous le voyez, ce facteur humain ne se produit pas dans l’abstrait, mais dans un ensemble de rapports sociaux et de production.

      Donc, vous pouvez parier que l’IA va s’intégrer dans un rapport social /de production et qu’elle va déboucher sur des applications assez variées et pas un modèle unique d’avion sans pilote, qui oblitère tout avenir différent.

      Et votre passage sur « La technologie ne fait pas tout » ou, plus nostalgique, sur « Rappelez vous la guerre des Malouines » fait sans aucun doute de vous un être qu’on peut rattacher au proverbial bon sens paysans, mais surtout, fait de vous un agent du cycle aliénation/prise de conscience/retour aux sources, etc. C’est plutôt dans ce dernier rôle, que je devine inconscient, que vous avez une utilité collective, la nostalgie étant un hobby d’individualiste.

  14. Carin dit :

    Il me semble que si on met un ordi type IA dans le cockpit d’un avion de chasse, c’est justement pour s’affranchir d’un pilote au sol.. cette IA intégrera tous les paramètres de résistance de l’avion qu’elle pilote, ainsi que toutes les techniques de combat qu’un pilote humain met des années à acquérir au prix de nombreux entraînements (acquérir le type réflexe). De plus, prenons l’exemple d’un rafale, cet avion peut supporter jusqu’à 12G.. ce qui n’est pas le cas d’un pilote humain qui dépasse rarement les 9G… l’IA n’ira pas non plus aux limites de sa cellule, mais pourra virer un peu plus vite et un peu plus serré, entre 10/11G sans aucun problèmes de fatigue, pression artérielle, et autres joyeusetés subies par le pilote.. en gros un rafale piloté par un humain, face à un autre rafale piloté par une IA, perdra son combat!!
    Reste plus qu’à rentrer dans l’IA des règles d’engagement du feu strictes et non contournables (ne passer en mode « combat » que si l’adversaire montre des signes réels d’agressivité.. et n’ouvrir le feu que dans le cadre d’une éventuelle attaque de soi-même, ou du ou des avions que l’on escorte).
    Et en cas de patrouille « chasse », la décision de tir ne peut venir que d’un humain via liaison satellitaires sécurisée.
    On peut donc penser qu’à terme le pilote de chasse est effectivement poussé vers la sortie, mais il en faudra toujours quelques uns pour donner l’ordre de tir si liaison satellitaire compromise.

    • sentinelle dit :

      sauf que le dog fight c’est fini au profit de la furtiviité qui évoluera et les missiles longues portés aussi vos drones n’auront pas la partie facile et pour la prochaine 5 ans 10 ans business as usual avec un rôle accru des drones dans différents domaines SEAD (le tomahawk est un drone), rend, frappe ponctuelle, chasse aux drones pour dégager le paysage etc …

      • ScopeWizard dit :

        Vous tombez dans la même chausse-trappes conceptuelle que ceux qui dans les années 1960 se sont imaginés qu’ avec le tout missile , les avions de combat les plus modernes n’ avaient plus besoin d’ une arme de bord type canon .

        Résultat , au bout de quelques mois de désillusions répétées dans le ciel du Vietnam face notamment aux agiles MiG-17 , le « tout missile » à présent démontré comme très insuffisant et inadapté ( d’ autant que les premiers missiles air-air AIM-7 Sparrow à moyenne portée ou AIM-9 Sidewinder à courte portée et guidage Infra-Rouge présentaient de fréquentes défaillances ) , il a fallu , en urgence , concevoir des nacelles -canon et les installer sous la voilure des premières versions des F-4 Phantom II engagés , ce qui a donné les pods General Electric SUU-16 et SUU-23 ( nacelles plus performantes et ne requérant plus l’ exigence de vitesse permettant d’ assurer un bon fonctionnement par rapport au modèle précédent ) avant qu’ à partir des F-4E les Phantom ne reçoivent les canons à tubes multiples rotatifs embarqués de 20 mm de rigueur .

        De plus , pour que le « combat tournoyant » n’ existe effectivement plus , cela exige qu’ aucun des adversaires ne soit plus en capacité de se placer dans les 6 heures de l’ autre , que ce soit à courte comme à moyenne distance , ou même en « tout secteur » , c’ est à dire , ni forcément pile dans les 6 heures donc avec un azimut variable mettons entre 4 et 8 heures , ni forcément à la même altitude donc avec des capacités d’ attaque en fort dénivelé le tout grâce aux missiles air-air .

        En cas de combat canon , en regard de la technologie actuelle , il est bien évident que les distances seront beaucoup plus proches , azimuts ou dénivelés variables mais avec une amplitude nettement moindre .

        Expliquez-moi comment vous pouvez affirmer que « le dog-fight c’ est fini » dans la mesure où quel que soit son degré de technologie , cela suppose qu’ un jet tel le F-35 , ne subisse jamais de panne affectant par exemple sa capacité à manœuvrer , ne soit jamais à court de missile de manière à toujours être capable d’ attaquer , de se défendre , de riposter ?

        Je suis désolé mais c’ est impossible ; dites plutôt que le combat rapproché sera « improbable » ou peu fréquent , mais n’ affirmez pas qu’ il est « fini » .

        Une courte rafale bien ajustée tirée depuis les 30 mm OSPEI d’ un Mirage 2000 C RDI bien placé ne fera que de la charpie de ce qui se trouvera en face et qu’ il atteindra , que ce soit un F-35 , un Su-57 , un J20 , ou un F-22 , aucun doute là-dessus ; à partir de là , l’ avoir touché au point de l’ envoyer au tapis ou même qu’ il s’ éparpille en vol sera plus qu’ une probabilité .

  15. Max dit :

    Vous avez bien lu ; « Les efforts de l’AFRL en matière d’intelligence artificielle sont « pilotés » par Steve Rogers. » La Darpa bosse avec le Shield !

  16. HMX dit :

    Débat intéressant dans la perspective du programme SCAF, et plus particulièrement pour son volet « effecteurs déportés ». Il faudra visiblement arbitrer entre le techniquement faisable, et le politiquement acceptable, concernant le degré d’autonomie qui sera accordé aux futurs drones. Vu notre retard à l’allumage et les psychodrames sur la question de pouvoir armer nos actuels drones, on croise les doigts pour que nous ne réitérions pas ce type de blocage psychologique, qui aboutirait à brider à l’excès l’autonomie accordée à nos futurs drones…
    A noter que la comparaison évoquée dans l’article entre les voitures autonomes qui peinent à voir le jour, et les drones aériens, semble peu pertinente. Le milieu aérien est en effet beaucoup plus fluide et homogène que le milieu terrestre, où les variables à prendre en compte sont infiniment plus nombreuses et complexes. Il sera ainsi paradoxalement plus simple de faire voler un drone autonome que de faire rouler en ville une voiture autonome…

  17. fond de gorge dit :

    https://air-cosmos.com/article/dfense-la-nouvelle-menace-des-radars-de-surveillance-trs-longue-porte-23136
    pour voir le combat de loin et l’étudier c’est utile un radar

  18. Azilonincu dit :

    Ça plane pour certains…..le drone capable d envoyer aux oubliettes le jet piloté est encore très loin.inutile d énumérer les limites de l ia ,la principale étant le lien drone opérateur qui risque de n être jamais totalement fiabilisė.

  19. PafBoom dit :

    Cela beaucoup d’életronique et pas mal de capteurs et de communication satellites.
    Tout cela sont autant de failles au brouillage …

  20. billoub dit :

    il ya peut etre d’autre facon depenser ..

    on a un nombre fini d’avions , on a un nombre fini de pilote

    le cout des drones

    au finish entre un pays riche qui envoie ses drone au casse pipe et un pays avec pilote : au bout d’unb moment le + riche gagnera …