L’armée de Terre mise sur l’intelligence artificielle pour élaborer des décisions opérationnelles tactiques

En janvier, le chef d’état-major de l’armée de Terre [CEMAT], le général Pierre Schill, avait soutenu qu’il ne fallait pas passer « à côté de l’intelligence artificielle » étant donné que « l’intégration de cette technologie aux systèmes d’armes » et aux « process d’état-major » était « impérative pour conserver l’initiative ». Et de citer, parmi les possibles cas d’usage, la « fiabilisation et l’accélération des boucles décisionnelles » ainsi que « l’aide à la conception de la manoeuvre ».

Cela étant, en juillet 2018, la Direction générale de l’armement [DGA] avant lancé le défi « Commandement et Contrôle des opérations interarmées » [C2IA], avec l’objectif de disposer d’une solution d’intelligence artificielle « exploitable » pour les forces armées afin de « soulager le commandement opérationnel des tâches ancillaires, répétitives et à faible valeur ajoutée qui pourraient être fortement automatisées ». L’idée était alors d’accroître la capacité de traitement et l’accès à l’information pour permettre aux planificateurs de se concentrer sur l’élaboration de « solutions opérationnelles et d’anticipation ».

Mais il est désormais question d’aller encore plus loin, l’Agence de l’innovation de défense [AID], qui relève de la DGA, ayant lancé un appel à manifestation d’intérêt [AMI] en vue d’intégrer des algorithmes d’intelligence artificielle dans la Méthode d’élaboration d’une décision opérationnelle tactique [MEDOT] pour « appuyer les postes de commandement de niveau brigade ».

La MEDOT est un processus de prise de décision qui consiste à analyser l’ensemble d’une situation donnée [forces en présence, nature du terrain, contexte, objectifs à atteindre] afin de déterminer le point clé de la manoeuvre à effectuer.

« Il est recherché l’intérêt des acteurs externes au ministère des Armées pour proposer des projets d’appui à la prise de décision tactique en lien avec la MEDOT en s’appuyant sur un corpus de données d’entraînement souveraines pré-identifiées par l’armée de Terre [documents de doctrine, thèmes tactiques, etc.] », explique l’AID.

Et d’ajouter : « Le projet présenté peut porter aussi bien sur l’amélioration de la réalisation des étapes intermédiaires que sur la décision finale de choix du mode d’action ».

Les participants à cet AMI auront la possibilité d’affiner leurs solutions lors d’un exercice organisé par l’École de Guerre – Terre [EDG-T] en septembre prochain. Celles-ci seront ensuite évaluée à l’occasion d’un exercice de l’École d’état-major [EEM] qui se tiendra à Saumur en novembre.

« L’application devra être développée, entraînée et fonctionner hors du réseau Internet. Le kit de développement logiciel [KDL] de la plate-forme Artemis.IA pourra être utilisé pour ce projet », a encore précisé l’AID.

Conformément à l'article 38 de la Loi 78-17 du 6 janvier 1978 modifiée, vous disposez d'un droit d'accès, de modification, de rectification et de suppression des données vous concernant. [Voir les règles de confidentialité]

69 contributions

  1. Cortex, think palantir dit :

    ben oui! on passe de l’humain qui prend les décisions pour le faire executer par la machine, à la machine qui prend les décisions pour les faire executer par l’humain.

    Le futur va être un mélange des deux. Ne vous poser pas la question, si cela va arriver, car que cela vous choque, je vous garantie que vous n’y couperez pas, donc prenez l’habitude à vous familiariser à l’IA…

    btw, j’attends que l’état se décide à faire dégraisser les mamouths de la bureaucratie…

    • Thierry le plus ancien dit :

      faut lire la presse, ça fait longtemps que le fonctionnariat s’est fait désossé et la peau tanné au profit de la nouvelle aristocratie : l’actionnaire majoritaire grassouillet qui prélève son écot sur la moindre de vos dépenses.

      Voyez la pénurie de recrutement, plus personne ne veut être fonctionnaire.

      Quant ces nouveaux artistos seront à point le peuple les emmènera à l’abattoir eux aussi, comme des cochons d’élevage… même l’IA sera d’accord sur cette logique…

      • Rakam dit :

        6 millions de fonctionnaires, 60 000 mille cette année, vous trouvé qu’il y a pénurie ? Vous êtes abonné à Libe?

        • 60 millions de consommateurs dit :

          « 60 000 mille cette année » !
          Ca y est, la totalité de la population active, des retraités, des chômeurs et des étudiants sont passés dans la fonction publique. Il fallait bien que ça finisse par arriver.
          Vous ne trouvez pas que vous exagérez un peu ?

    • Elwin dit :

      J’aurai dit :
      « L’humain qui prend les décisions pour les faire exécuter par la machine, à la machine qui prend les décisions pour faire exécuter l’humain.

    • Marine dit :

      En même temps, depuis des décennies les conducteurs (humains) obéissent à des systèmes automatiques tels que les feux tricolores pour la régulation du trafic routier sur de nombreux de carrefours. Donc, un humain qui obéit à une machine, ça existe déjà depuis belle lurette !

      • cortex, belle lurette dit :

        vu sous cet angle c’est pertinent

      • Vinz dit :

        Ils n’obéissent pas à un système en tant que tel ; ils obéissent à un code régulateur derrière ce système, comme chaque panneau indicateur qu’on peut croiser. Mais si le système est manifestement détraqué, le conducteur sait qu’il n’est pas tenu d’obéir.
        L’homme a discerné quatre vertus cardinales morales : la justice, la tempérance, la prudence, et la force/courage. Je ne vois pas bien comment « inculquer » ces quatre vertus morales à une IA, d’autant que ces vertus ne sont pas dissociables : la force sans la prudence c’est de l’inconscience ; sans la justice elle est oppressive etc.

    • Badaboum dit :

      Ne pas confondre suradministration et surréglementation. Comme beaucoup de cadres du secteur public, je suis surchargé, ce qui ne serait pas le cas si ce pays était suradministré

  2. Mick dit :

    l’armée Israélienne le fait deja à l’aide de logiciels tactique assisté par AI combiné à des outils d’observation de haute technologie.
    cela permet de prendre des decisions rapide et de les executer en prenant en compte les etapes.

    • Félix GARCIA dit :

      N’importe quoi.
      « Lavender’ … c’est comme le désodorisant pour chiottes : après en avoir utilisé, ça ne sent pas bon, ça sent la merde à la lavande.

    • rainbowknight dit :

      Puis ensuite de présenter des excuses en incriminant le dysfonctionnement de l’outil d’aide à la décision….. « responsable mais pas coupable » dans les Armées.

    • Matou dit :

      On voit le résultat : la dévastation. Il est capital que l’humain reste dans la boucle, d’une part pour prise de recul sur la décision finale et d’autre part pour éviter les biais cognitifs.
      Le risque est de tomber dans la solution de facilité où, pris par le temps de décision ou la déresponsabilisation, on suive directement les instructions données par l’IA avec tout le danger que cela comporte. Comme n’importe quelle arme, une doctrine d’usage et l’établissement des responsabilités liées à l’humain sont capitales. On ne doit jamais pouvoir dire : « c’est pas ma faute, c’est l’IA qui a dit que … ». Si un jour on en venait à entendre ce genre de phrase, ce serait une catastrophe.

    • KL42 dit :

      D’après un lanceur d’alerte Israélien, le système est devenu fou.
      L’AI devait donner des cibles à l’armée de l’air. La machine devait déterminé ou habitaient les combattants du hamas, enfin les combattants et/ou les sympathisants. Le hamas disait avoir 20 000 hommes l’IA a déterminé jusqu’à 37 000 cibles les militaires en dût limiter les paramètres car sinon les pompiers, ambulanciers, enfin toutes personnes travaillant pour l’administration Palestinienne devenait une cible légitime.
      Plusieurs remarques:
      1) D’après le lanceur d’alerte il était légitime pour un soldat du hamas d’avoir 5 à 10 perte colatéral, et plus de 100 pour les commandants de l’organisation.
      2) Si nous regardons les dommages infligés aux batiments et à la population ( nombre de femmes et d’enfants tuer) il semble bien que le lanceur d’alerte ne dise des conneries.
      3) Tant que l’IA est sous controle et que les opérateurs savent ce qui est rentrer dans l’ordinateur les donner seront ce qu’ils en attendent. Le jour ou la réalité ne correspondra pas aux résultats attendu soit nous aurons perdu la guerre soit nous serons tous morts.
      4) Les responsables pourront toujours se disculper en disant que la machine leur a donné les objectifs et qu’ils n’étaient que des exécutants, vous imaginez les dérives possibles. Ces responsables pourront être militaires, bureaucrates, docteurs, ingénieurs etc…
      Personne ne semble imaginé les conséquences d’une perte décisionnelle de l’humain pour les années futures.

    • Vincent dit :

      Oui bien sûr… en réalité c’est un logiciel de bataille navale qui permet de ne pas tirer deux fois sur la même case.

      Tout cela n’est qu’une resucé de la guerre propre, nous ! c’est mieux c’est de l’IA, haute technologie, frappes chirurgicales, au final pour le mariage qui se fait blaster par deux bombes de 250kG, ca ne fait pas une grande différence.

      Mais on pourras dire ah zut c’est un bug, ce sera patché dans la prochaine version, thumbs up.

  3. farragut dit :

    Comme quoi, tous les militaires pourront ensuite reprendre la réplique de John Rambo :
    « – Rambo, vous allez être en parfaite sécurité car nous allons mettre les meilleures armes du monde IA à votre service.
    – J’ai toujours cru que c’était l’esprit la meilleure arme. »
    Rambo 2 : la mission, Marshall Murdock et Rambo.
    Ou encore :
    « Ce n’était pas ma guerre, c’est vous qui m’aviez appelé, pas moi ! » 😉

  4. phil135 dit :

    rien à voir avec Skynet bien sûr évidement. quand tous ces bidules automatisés avec auto-apprentissage et arbres de décision variables (et plutôt opaques) vont se trouver les uns les autres … j’espère que quelqu’un leur aura appris un bon socle de valeurs humaines

    • rainbowknight dit :

      Le futur en marche, ne pas désespérer de voir un jour Skynet nous dire et prouver toute son affection……
      « Science sans conscience…. »

  5. Plusdepognon dit :

    Gestion algorithmique des affaires humaines, aujourd’hui la guerre :
    https://www.geo.fr/geopolitique/israel-gaza-lavender-effrayante-intelligence-artificielle-israelienne-qui-a-marque-37000-cibles-humaines-hamas-maisons-morts-bombes-219593

    Tous les domaines sont connectés :
    https://usbeketrica.com/fr/article/6-raisons-de-faire-confiance-ou-pas-aux-algorithmes

    Il y a quantité de tâches qui peuvent être automatisées :
    https://www.swiftask.ai/blog/taches-pouvant-etre-automatisees-par-lia-dans-votre

    C’est toujours une course aux profits car bénéficier de l’intelligence artificielle demandera de grandes ressources.
    https://www.tom.travel/2024/04/16/ia-10-tendances-qui-caracterisent-le-marche-en-2024/

    La convergence des sociétés humaines par la volonté de tout contrôler, trait psychologique commun à tous les assoiffés de pouvoir :
    https://www.lefigaro.fr/vox/monde/chine-et-occident-convergeront-ils-vers-une-gestion-des-individus-par-algorithmes-20211226

  6. lxm dit :

    Nous sommes en l’an 5000, presque 3 millénaires que les machines se font une guerre éternelle, océania contre eurasia. La pollution est telle qu’il n’y a plus de vie depuis très longtemps, les IA sont en mode automatique, et dirigent d’énormes machines-vers usines terrassant et fouissant jusqu’à plusieurs dizaines de km sous terre, pour produire les millions de drones bataillant à la surface. A chaque nouvelle stratégie détectée, l’autre IA développe une contre-stratégie.

    Un film qui m’a énormément marqué étant gamin, « planète hurlante » film de science-fiction militaire racontant l’évolution d’IA alliées aux drones. Une fois lancée la production, aucun humain n’était plus capable de contrer une IA.

    • rainbowknight dit :

      Je suis dubitatif. Si la source de tous les maux, l’humain , est éradiquée comment le monde peut il être pire ?
      Je crois que notre plus puissante ennemie et meilleure alliée nous aura remis à notre place… Dame Nature se rappelle à nous.

    • Elwin dit :

      Ah si, il faudra bien des humains pour creuser, ça coute moins cher qu’un robot. Il nous restera ça. Devenir des machines à notre tour.

    • alexandre dit :

      @ lxm. La singularité technologique. C’est une hypothèse et un sujet de réflexion très intéressantes. Un peu trop souvent vue avec un œil catastrophiste à mon avis .

      https://fr.wikipedia.org/wiki/Singularit%C3%A9_technologique

  7. Clavier dit :

    Y’a pas à dire , la race humaine va bien réussir à s’auto-détruire avant la fin de ce siècle !
    ce sera un net soulagement pour tous les animaux …

    • Marine dit :

      … sauf s’ils sont détruits également comme « dommages collatéraux ».

  8. Thierry le plus ancien dit :

    Et Macron il n »‘a toujours pas d’intelligence artificielle pour prendre ses décisions ? en même temps on savait qu’il se fiait à sa bêtise naturelle, endoctriné qu’il est par les ultrariches dont l’unique soucis c’est de na pas payer d’impôts et de faire porter le blame de leurs propre avanies sur les migrants et les pauvres, c’est quand même bien rétrograde tout ça !

    D’ailleurs en parlant d’impôts et vu que c’est la saison, Macron se vante d’en avoir supprimé le plus comme président, mais avec l’inflation les impôts qui restent à payer sont mille fois moins supportable que ceux qu’il y avait avant… pour la simple raison qu’ils ne sont pas supprimés mais juste déplacés, un tour de passe passe de magicien…

    • FNSEA dit :

      Les collègues horticulteurs, qui ont bien des soucis pour faire pousser leurs soucis, l’affirment haut et fort : le mot souci s’écrit sans s au singulier, qu’il s’agisse du tracas ou de la fleur.
      L’unique souci, un plant de souci, un gros souci, un souci en pot, le palais de Sans-Souci, une fleur de souci, se faire du souci, un souci jaune vif, le souci de plaire, un souci à la boutonnière.

    • MERCATOR dit :

      @Thierry le plus ancien .

      « Bêtise naturelle, ??

      J’aime bien les mecs qui n’ont pas dépassé le brevet des collèges, traiter d’idiot un »goy » choisi comme associe gérant par les dirigeants de chez Rothschild qui, c’est bien connu, prennent le premier Bardella qui passe .

    • Sardine dit :

      Mille fois, seulement ? Un million de fois, peuchère !

  9. Prof de physique dit :

    Je me méfie de cette utilisation de l’IA.
    Ce bidule est en fait une optimisation du conformisme. On nourri la machine avec des milliers, ou beaucoup plus d’exemples numérisés, et elle fait un travaille statistique dessus.
    Donc en réalité le bidule me fait penser aux vietmins qui pendant la guerre d’Indochine préparaient minuteusement leur attaque, répétant des dizaines de fois sur des maquettes grandeur nature du fort des français, et d’après les témoignages des anciens, si les gaulois réagissaient de manière non prévue, ce qui arrivait souvent, les vietmins pouvaient en être déconcertés et avaient u mal à prendre des initiatives adaptées.

    Je suis allé voir le site
    https://www.udio.com/

    J’ai écouté différents morceaux de musique générés par IA.
    Celui-ci de country fait illusion mais peut être parce que je ne suis pas un connaisseur du genre.
    Robots Stole my job!
    https://www.udio.com/songs/8JxYbHqpuDwJyg8247Br2y

    Au passage, regardez le nombre de cordes de la guitare et le nombre de
    doigts du vieux joueur du Bayou.

    Par contre les morceau de musique classique ou baroque ne font impression que quelques secondes. Ces musiques doivent être rigoureusement construites, en particulier la musique baroque, selon des règles que l’IA n’a pas intégré, puisque ce bidule fait en réalité une espèce de moyenne des morceaux qu’il connaît. Donc pour une oreille
    attentive d’un amateur de musique classique ou baroque, c’est un fatras de trucs assemblés sans ligne directrice.
    N’est pas J. S. Bach ou J. Brahms ou Chopin qui veut.
    https://www.udio.com/songs/wWp3MiStwWsPN629qa2M6c
    https://www.udio.com/songs/fAQR5nyJ12tyCxBf57V9fz

    Ça peut servir de musique d’ascenseur.

    Par contre là, à part un certain scintillement du son, on pourrait s’y croire.
    Agressivité, vulgarité, intolérance, ce sont bien des antifa.
    https://www.udio.com/songs/1xKMhzu3mYTMvXqMW6mobo

    L’IA va faire des progrès, et à ce moment là, logiquement, on devrait arriver au monde décrit par lxm.

    Peut être est-ce pour cela que Herbert dans son roman Dune parle du « Jihad butlérien ».
    https://fr.wikipedia.org/wiki/Jihad_butl%C3%A9rien
    https://www.techno-science.net/glossaire-definition/Jihad-Butlerien.html

  10. Robmac dit :

    Si l »IA est vraiment intelligente, et donc utilisée par toutes les armées du monde, elle dira « Ne faites pas la guerre, bande de C..s » …

  11. Sharpei dit :

    on connaît l’expression de Paul Valery « la guerre est le massacre de gens qui ne se connaissent pas au profit de gens qui se connaissent et ne massacrent pas »…on va devoir la remettre à jour « la guerre est le massacre de gens qui ne se connaissent pas mais elle est organisée par une seule IA mondialisée  » du moins c’est ce qui nous attend.

  12. vrai_chasseur dit :

    On n’est pas dans le fantasme Skynet.
    Le défi ici est beaucoup plus prosaïque, il s’agit « d’inverser la proportion 70/30 ». Il est résumé dans ce schéma :
    http://media.licdn.com/dms/image/C5612AQELQ-ARXfE3dg/article-inline_image-shrink_1000_1488/0/1583138114213?e=1718841600&v=beta&t=QlF84L8qx1-1sMPnQcI4q-_36c2CMrlfSyfZ9sxLFig

    Aujourd’hui les militaires d’un état-major passent 70% de leur temps à collationner, filtrer, nettoyer, recouper, valider les immenses quantités d’informations qui leur proviennent de capteurs techniques (et humains) toujours plus nombreux, plus variés et plus connectés.
    Ils passent donc seulement 30% de leur temps à faire leur vrai travail : planifier la manœuvre opérative, souvent interarmées voire interalliée, en prenant les hypothèses les plus réalistes avec la meilleure gestion des risques et des ressources pour les objectifs recherchés.
    L’idée est donc d’inverser cette proportion, en faisant faire par la machine toutes ces tâches fastidieuses sur les informations que l’homme fait actuellement. Il s’agira par exemple de recouper automatiquement des images provenant de plusieurs capteurs, prises sous des résolutions et angles différents, pour valider en 1 clic qu’on parle bien de la même cible potentielle.
    Outre le fait de permettre à un état-major de mieux exercer son métier, l’idée est aussi de retrouver l’avantage du facteur temps : quand on planifie et exécute une manœuvre opérative combinée plus rapidement que l’adversaire, on a déjà pris l’ascendant.

    • Courmaceul dit :

      Assez significatif que vous soyez le seul à faire le lien IA et Etat-Major. 🙂

    • Desquins dit :

      Pour « gagner du temps », l’IA aurait-elle eu l’idée de trancher le noeud gordien?

    • Paul Bismuth dit :

      @ vrai_chasseur
      Si l’intelligence artificielle écréme et compile les renseignements pour la désignation des objectifs, elle commande de faitles manœuvresqui en découlent « en guidant ».

      Comme les américains nous l’ont appris avec le renseignement pendant l’opération DAGUET en 1991, entraînant les créations de la DRM et du COS.

      Qui renseigne, commande.

  13. Fusco dit :

    Un de mes premiers chefs de corps disait : « Et au bout du bout le fantassin meurt d’une balle »
    A méditer.

  14. Pirlouis dit :

    Tant que l’homme contrôlera la prise de décision finale, l’IA est un atout.
    Si l’IA est autorisée à s’émanciper de tout contrôle humain en final, c’est le début de l’activation du syndrome chinois à la civilisation humaine par cette technologie. Espérons que le pire sera évité

  15. Vade retro dit :

    Si l’Intelligence fait son entrée au sein des Armées, c’est que la fin est proche !
    Transformer les troufions en joueurs de jeux vidéo, c’est la dernière prouesse du lobby idéologique qui veut la fin de l’occident .
    Toute personne ayant déjà pu tâter de l’I.A a pu se rendre compte de la pauvreté, de l’inanité et donc de la dangerosité de ce truc à la mode qui est vendu par des VRP comme le summum du développement humain, alors qu’il en est un des fossoyeurs..

  16. Ancien des opex dit :

    Il est certainement bon d´explorer tous les domaines qui pourraient être utilisables pour l´action.
    D´autant que l´IA, dépourvue d´émotions, infatigable restera rationnelle quand une intelligence humaine insuffisamment aguerrie aura des faiblesses.
    Toutefois je reste très réservé à cause de la judiciarisation du commandement.
    Au cours des opex plusieurs chefs tactique tactiques ont dû prendre des initiatives qui les auraient conduits aux Assises si ça n´avait pas marché. L´exemple le plus connu est certainement Vrbanja mais il y en a beaucoup d´autres.
    Par conséquent je crains qu´à l´avenir on puisse reprocher au chef tactique de n´avoir pas suivi les préconisations de l´IA.
    Avant d´aller plus loin dans cette exploration, il faut demander à l´IA quels conseils elle aurait donnés dans telle ou telle situation bien connue du passé.

  17. Allobroge dit :

    Il suffira de mettre une fausse info dans la bécane pour que l’IA recrache une solution bancale voir erronée, mais cela effleure-t-il les beaux esprits parisiens qui veulent se décharger de leurs responsabilités au profit de l’IA ?

    • Desquins dit :

      Une IA se fie systématiquement aux biais cognitifs de ses programmeurs, avec leur intelligence manifestement pas artificielle… On a pas fini d’errer dans l’absurde selon le proverbe « errare humanum est, perseverare diabolicum ».

    • Marco dit :

      De même qu’un Etat Major avec des informations d’origine humaine erronées prendra la mauvaise décision.
      L’IA ne décharge en rien de la responsabilité. Pas encore, en tous cas.
      Voir le commentaire de vrai_chasseur un peu plus haut : l’IA sert à condenser rapidement une masse de données, elle ne sert pas à remplacer le décisionnaire, celui qui a la responsabilité du choix.

    • Avekoucenzeh dit :

      Pour dire « et même », il convient d’employer l’adverbe « voire » (généralement précédé d’une virgule) plutôt que le verbe « voir » (qui n’a pas ce sens).

      Pour que l’IA recrache une solution bancale, voire erronée.

  18. Caussencor dit :

    Sourires : Enfin nos beaux militaires vont avoir une intelligence, mais artificielle. Donc il y a longtemps, plus de 50 ans, les anciens du Larzac avaient bien vu le problème. Cela fait plaisir de voir les choses changer, mais il aura fallu du temps.

  19. JILI dit :

    S’il mise uniquement sur l’IA pour soulager le commandement de certaines tâches, et ceci alors que d’autres pays ont déjà ou sont en train de dépasser ce stade, sincèrement, il y en a vraiment plus qu’assez de notre clique de Décideurs et Penseurs , qui se prennent pour des cerveaux et incessamment bloquent notre pays à l’ »Insuffisance ». De plus lorsqu’on sait que dans l’IA, nous sommes au top mondial, il n’est pas difficile de comprendre que d’ici peu les meilleurs de nos chercheurs qui seront bloqués par ce ramassis d’abrutis, iront travailler aux USA,en Allemagne et ailleurs. Bref, encore une réaction qui explique pourquoi nous sommes déficitaires dans l’économie, le spatial etc., et là franchement, il faut empêcher tous ces bureaucrates et technocrates de décider pour nous tous, et les limiter à leur niveau afin de placer au-dessus des personnes compétentes. En effet, ces dernières sont légion dans notre pays, et il y en a plus qu’assez de les voir briller à la NASA, la Silicone Vallée et dans les universités americaines, et ainsi par leur absence que notre pays tombe et régresse. Bref, dehors les Nuls!

    • Ancien des opex dit :

      Ne vous énervez pas, JILI.
      Bien sûr vous avez raison.
      Mais explorer des voies nouvelles n´est pas mauvais. À condition de ne pas céder à un effet de mode.
      .
      Car ce que l´on appelle aujourd’hui avec exagération « intelligence artificielle, ce n´est pas vraiment nouveau.
      Seule l´appellation est nouvelle, ce qui suffit à en faire une nouveauté sensationnelle pour la presse.
      .
      Il faut, sans se priver d´examiner ce qui semble être une nouveauté peut-être féconde, savoir ne pas céder à l´emballement de la mode.
      Ni à l´inverse, comme vous le faites, rejeter en bloc et peut-être trop vite une nouveauté qui mérite un peu d´attention.
      .
      Quant à moi, j´y suis réticent comme je l’ai dit plus haut, parce que ça risque de paralyser l´initiative des décideurs du niveau qui est l´un de nos points forts : les décisions de terrain.

    • Gilles Aigeaunne d'Hurronpouein dit :

      « La clique des technocrates et bureaucrates incompétents, abrutis et nuls ».
      Passez les concours pour arriver à leurs postes au lieu de chanter vos refrains populistes.

  20. VinceToto dit :

    « un corpus de données d’entraînement souveraines pré-identifiées par l’armée de Terre [documents de doctrine, thèmes tactiques, etc.] », explique l’AID »
    Je plains l’IA qui va devoir ingurgiter ce genre d’info. La pauvre! C’est un peu comme devoir manger un repas déjà mangé.

  21. Rozand dit :

    cela me fait penser à la scène de « Démolition Man » quand les policiers pour interpeller un criminel sont assisté par une IA leur disant quoi faire xD.

    le suspect refuse d’obtempérer,
    IA: « dans ce cas la augmenter le ton de votre voix et rajouter « si non » XD j’ai hâte.

  22. Palu dit :

    Avant dernier step avant que les robots facent la guerre à notre place

    • farragut dit :

      @Palu
      Pas vraiment, la dernière étape est bien décrite dans le film « Collossus, the Forbin Project » de 1970 (en français « Le Cerveau d’Acier »)… 😉
      https://www.youtube.com/watch?v=kyOEwiQhzMI
      https://fr.wikipedia.org/wiki/Le_Cerveau_d%27acier

      • Cinéphile dit :

        Si l’on veut se référer au cinéma pour ce sujet, il faut ne pas manquer « l’Odyssée de l’espace », de S. Kubrick sur une idée d’A. C. Clarke : dans la lutte à mort entre le spationaute et l’ordinateur de bord qui est le summum de l’intelligence artificielle, l’homme gagne parce qu’il trouve une solution de survie tellement illogique que la machine ne pouvait pas la prévoir.

    • Face à face dit :

      Avant que les robots fassent la guerre.

  23. Vinz dit :

    L’humain devient de toute façon un corps de plus en plus étranger sur le champ de bataille.
    Ne pas oublier d’alimenter l’IA en paramètres carbone et interwokediversectionnalité les gars.
    Pas de risque Skynet avec ça.
    Pas de risque non plus de gagner une guerre, mais bon, sans l’IA on se débrouille aussi.

  24. Desquins dit :

    Adieu la créativité. Adieu la réactivité face au brouillard de la guerre. Adieu l’originalité conceptuelle.
    Pendant que les méga-ordinateurs compulseront les résultats confrontés de leurs Kriegspielen, les vrais humains, s’il en reste, continueront à s’affronter dans de vrais guerres… en prenant les options rejetées par les super-calculateurs.

  25. Desquins dit :

    Si l’IA arrive jamais à un minimum de logique intelligente, ce dont je doute, elle devra explorer la sémantique générale et ne pourra prendre aucune décision parce qu’elle aura compris les conséquences du fait que « la carte n’est pas le territoire » et que la logique aristotélicienne repose sur des bases purement abstraites que contredit régulièrement la réalité (cf. A. KORZYBSKI: Science and sanity)! Une des raisons pour laquelle F. HERBERT bannit les ordinateurs depuis longtemps dans le cycle de Dune.

  26. Rageot de La Touche dit :

    Nos généraux vont ils être mis à la retraite ?

  27. Alfred dit :

    Et si la solution pour contrer l’IA d’une armée adverse, c’étaient quelques chefs militaires déjantés et imprévisibles qui n’hésitent pas à faire l’improbable, assistés par un soutien logistique qui suit en toutes circonstances? Trop de rationalité conduisant à la prévisibilité et au statut quo, il serait intéressant de voir comment se comporte l’IA face à « l’irrationalite tactique » (à ne pas confondre avec le suicide inconscient)

    • Cinéphile dit :

      Alfred, je suis d´accord : si l´on s´enferme dans des algorithmes (et l´IA ne sait pas faire autrement) on devient prévisible et à la merci d´un ennemi capable d´être illogique.
      C’est ce que je voulais souligner par ma précédente intervention.
      C’est pourquoi l´on ferait bien de demander à l´IA ce qu’elle aurait fait dans telle ou telle situation du passé.

    • Ancien des opex dit :

      Exact, Alfred : en opex on a souvent eu affaire à des ennemis qui n´avaient pas la même logique que nous.
      Et encore moins la même logique que les informaticiens.

      • Belzébuth dit :

        @ Anvien des opex
        Et ils ont gagné à la fin, vu comme on s’est fait dégagé, même des pays africains.
        C’est en route pour nous dégagé aussi des DROM-COM sous prétexte de « décolonisation ».

    • Le statut, c’est un ensemble de textes qui régissent une situation.
      La statue, c’est le perchoir favori des pigeons sur la place.
      La stat tue, c’est un chiffre que l’on ne révèle pas.
      La stat tue, c’est aussi la raison pour laquelle on s’abstient de la révéler.
      Les Status Quo, c’est un groupe de rock : (Live in Birmingham 1989) https://www.youtube.com/watch?v=orGoFZIh_Vk
      Le statu quo, c’est du latin pour dire que rien ne change.

      Trop de rationalité conduisant à la prévisibilité et au statu quo, il serait intéressant de voir comment se comporte l’IA face à « l’irrationalité tactique ».

  28. felipe dit :

    cette étude initiée par la CEMAT mérite quelques réflexions.
    on peut toujours craindre le syndrome Terminator et on aurait raison dans la mesure où la guerre s’appropriant toujours les progrès technologiques (les drones en sont un exemple parfait), on peut craindre qu’une IA génère des solutions qui sortent du contrôle humain.
    dans le cas présent, je comprends qu’il s’agit d’aider à la décision en proposant des options tactiques construites autour de la MEDOT au niveau d’une brigade et c’est important. car il faut bien retenir un point essentiel que nous redécouvrons : une birgade engagée dans une action de haute intensité ne pourra pas A lA FOIS conduire sa mission et planifier la suivante. sauf si on double les effectifs de ses CO. le tempo de la manoeuvre, l’usure physiologique et psychique du C2 sera trop élevé. l’intensité des opérations et la sauvegarde du système de commandement imposera une articulation centrée alternativement (et plus simultanément) sur la conduite de l’opération en cours ou sur la conception de la suivante. c’est en ce sens que l’IA devrait permettre d’aider le chef tactique.
    si l’IA propose des modes d’actions amis et ennemis robuste, elle ne fera pas plus mal que des officiers traitants « rincés » qui pourraient oublier en cours de route quelques principes de tactique. l’histoire regorge « d’erreurs fatales ». je ne dis pas que l’IA fera mieux mais qu »elle proposera « à la place de »…
    il s’agit donc de demander à une IA d’analyser, l’ennemi (sa manœuvre, ses intentions, le cadre espace-temps, etc.) le terrain (et pas seulement les « couloirs de mobilité » mais de faire une étude poussée de la traficalbilité des axes, adaptées aux capacités de la brigade en question,) les capacités log, les problèmes de liaison , etc. Il s’agit donc de faire gagner du temps dans l’analyse des données car c’est le seul aspect que la numérisation ne permet pas de réduire. on peut collecter plus vite, on peut fusionner plus vite (avec une erreur majeure d’interprétation -mais l’IA fera pareil.
    enfin, le chef tactique restera seul responsable. c’est un principe éthique

  29. Robmac dit :

    On a demandé récemment à une IA dessinatrice de représenter des soldats nazis. Elle produit le portrait d’un soldat blanc, d’un noir, d’un asiatique et d’un arabe … Biberonnée à des données US, l’IA est devenue woke !!!

    Vive l’assistance de l’IA pour s’entretuer et détruire : c’est le progrès, et si l’IA le dit, c’est que c’est vrai.