L’armée de Terre mise sur l’intelligence artificielle pour élaborer des décisions opérationnelles tactiques
En janvier, le chef d’état-major de l’armée de Terre [CEMAT], le général Pierre Schill, avait soutenu qu’il ne fallait pas passer « à côté de l’intelligence artificielle » étant donné que « l’intégration de cette technologie aux systèmes d’armes » et aux « process d’état-major » était « impérative pour conserver l’initiative ». Et de citer, parmi les possibles cas d’usage, la « fiabilisation et l’accélération des boucles décisionnelles » ainsi que « l’aide à la conception de la manoeuvre ».
Cela étant, en juillet 2018, la Direction générale de l’armement [DGA] avant lancé le défi « Commandement et Contrôle des opérations interarmées » [C2IA], avec l’objectif de disposer d’une solution d’intelligence artificielle « exploitable » pour les forces armées afin de « soulager le commandement opérationnel des tâches ancillaires, répétitives et à faible valeur ajoutée qui pourraient être fortement automatisées ». L’idée était alors d’accroître la capacité de traitement et l’accès à l’information pour permettre aux planificateurs de se concentrer sur l’élaboration de « solutions opérationnelles et d’anticipation ».
Mais il est désormais question d’aller encore plus loin, l’Agence de l’innovation de défense [AID], qui relève de la DGA, ayant lancé un appel à manifestation d’intérêt [AMI] en vue d’intégrer des algorithmes d’intelligence artificielle dans la Méthode d’élaboration d’une décision opérationnelle tactique [MEDOT] pour « appuyer les postes de commandement de niveau brigade ».
La MEDOT est un processus de prise de décision qui consiste à analyser l’ensemble d’une situation donnée [forces en présence, nature du terrain, contexte, objectifs à atteindre] afin de déterminer le point clé de la manoeuvre à effectuer.
« Il est recherché l’intérêt des acteurs externes au ministère des Armées pour proposer des projets d’appui à la prise de décision tactique en lien avec la MEDOT en s’appuyant sur un corpus de données d’entraînement souveraines pré-identifiées par l’armée de Terre [documents de doctrine, thèmes tactiques, etc.] », explique l’AID.
Et d’ajouter : « Le projet présenté peut porter aussi bien sur l’amélioration de la réalisation des étapes intermédiaires que sur la décision finale de choix du mode d’action ».
Les participants à cet AMI auront la possibilité d’affiner leurs solutions lors d’un exercice organisé par l’École de Guerre – Terre [EDG-T] en septembre prochain. Celles-ci seront ensuite évaluée à l’occasion d’un exercice de l’École d’état-major [EEM] qui se tiendra à Saumur en novembre.
« L’application devra être développée, entraînée et fonctionner hors du réseau Internet. Le kit de développement logiciel [KDL] de la plate-forme Artemis.IA pourra être utilisé pour ce projet », a encore précisé l’AID.
ben oui! on passe de l’humain qui prend les décisions pour le faire executer par la machine, à la machine qui prend les décisions pour les faire executer par l’humain.
Le futur va être un mélange des deux. Ne vous poser pas la question, si cela va arriver, car que cela vous choque, je vous garantie que vous n’y couperez pas, donc prenez l’habitude à vous familiariser à l’IA…
btw, j’attends que l’état se décide à faire dégraisser les mamouths de la bureaucratie…
faut lire la presse, ça fait longtemps que le fonctionnariat s’est fait désossé et la peau tanné au profit de la nouvelle aristocratie : l’actionnaire majoritaire grassouillet qui prélève son écot sur la moindre de vos dépenses.
Voyez la pénurie de recrutement, plus personne ne veut être fonctionnaire.
Quant ces nouveaux artistos seront à point le peuple les emmènera à l’abattoir eux aussi, comme des cochons d’élevage… même l’IA sera d’accord sur cette logique…
6 millions de fonctionnaires, 60 000 mille cette année, vous trouvé qu’il y a pénurie ? Vous êtes abonné à Libe?
« 60 000 mille cette année » !
Ca y est, la totalité de la population active, des retraités, des chômeurs et des étudiants sont passés dans la fonction publique. Il fallait bien que ça finisse par arriver.
Vous ne trouvez pas que vous exagérez un peu ?
J’aurai dit :
« L’humain qui prend les décisions pour les faire exécuter par la machine, à la machine qui prend les décisions pour faire exécuter l’humain.
En même temps, depuis des décennies les conducteurs (humains) obéissent à des systèmes automatiques tels que les feux tricolores pour la régulation du trafic routier sur de nombreux de carrefours. Donc, un humain qui obéit à une machine, ça existe déjà depuis belle lurette !
vu sous cet angle c’est pertinent
Ils n’obéissent pas à un système en tant que tel ; ils obéissent à un code régulateur derrière ce système, comme chaque panneau indicateur qu’on peut croiser. Mais si le système est manifestement détraqué, le conducteur sait qu’il n’est pas tenu d’obéir.
L’homme a discerné quatre vertus cardinales morales : la justice, la tempérance, la prudence, et la force/courage. Je ne vois pas bien comment « inculquer » ces quatre vertus morales à une IA, d’autant que ces vertus ne sont pas dissociables : la force sans la prudence c’est de l’inconscience ; sans la justice elle est oppressive etc.
Ne pas confondre suradministration et surréglementation. Comme beaucoup de cadres du secteur public, je suis surchargé, ce qui ne serait pas le cas si ce pays était suradministré
l’armée Israélienne le fait deja à l’aide de logiciels tactique assisté par AI combiné à des outils d’observation de haute technologie.
cela permet de prendre des decisions rapide et de les executer en prenant en compte les etapes.
N’importe quoi.
« Lavender’ … c’est comme le désodorisant pour chiottes : après en avoir utilisé, ça ne sent pas bon, ça sent la merde à la lavande.
Puis ensuite de présenter des excuses en incriminant le dysfonctionnement de l’outil d’aide à la décision….. « responsable mais pas coupable » dans les Armées.
On voit le résultat : la dévastation. Il est capital que l’humain reste dans la boucle, d’une part pour prise de recul sur la décision finale et d’autre part pour éviter les biais cognitifs.
Le risque est de tomber dans la solution de facilité où, pris par le temps de décision ou la déresponsabilisation, on suive directement les instructions données par l’IA avec tout le danger que cela comporte. Comme n’importe quelle arme, une doctrine d’usage et l’établissement des responsabilités liées à l’humain sont capitales. On ne doit jamais pouvoir dire : « c’est pas ma faute, c’est l’IA qui a dit que … ». Si un jour on en venait à entendre ce genre de phrase, ce serait une catastrophe.
Terminator l’avait annoncé….
D’après un lanceur d’alerte Israélien, le système est devenu fou.
L’AI devait donner des cibles à l’armée de l’air. La machine devait déterminé ou habitaient les combattants du hamas, enfin les combattants et/ou les sympathisants. Le hamas disait avoir 20 000 hommes l’IA a déterminé jusqu’à 37 000 cibles les militaires en dût limiter les paramètres car sinon les pompiers, ambulanciers, enfin toutes personnes travaillant pour l’administration Palestinienne devenait une cible légitime.
Plusieurs remarques:
1) D’après le lanceur d’alerte il était légitime pour un soldat du hamas d’avoir 5 à 10 perte colatéral, et plus de 100 pour les commandants de l’organisation.
2) Si nous regardons les dommages infligés aux batiments et à la population ( nombre de femmes et d’enfants tuer) il semble bien que le lanceur d’alerte ne dise des conneries.
3) Tant que l’IA est sous controle et que les opérateurs savent ce qui est rentrer dans l’ordinateur les donner seront ce qu’ils en attendent. Le jour ou la réalité ne correspondra pas aux résultats attendu soit nous aurons perdu la guerre soit nous serons tous morts.
4) Les responsables pourront toujours se disculper en disant que la machine leur a donné les objectifs et qu’ils n’étaient que des exécutants, vous imaginez les dérives possibles. Ces responsables pourront être militaires, bureaucrates, docteurs, ingénieurs etc…
Personne ne semble imaginé les conséquences d’une perte décisionnelle de l’humain pour les années futures.
Oui bien sûr… en réalité c’est un logiciel de bataille navale qui permet de ne pas tirer deux fois sur la même case.
Tout cela n’est qu’une resucé de la guerre propre, nous ! c’est mieux c’est de l’IA, haute technologie, frappes chirurgicales, au final pour le mariage qui se fait blaster par deux bombes de 250kG, ca ne fait pas une grande différence.
Mais on pourras dire ah zut c’est un bug, ce sera patché dans la prochaine version, thumbs up.
Comme quoi, tous les militaires pourront ensuite reprendre la réplique de John Rambo :
« – Rambo, vous allez être en parfaite sécurité car nous allons mettre les meilleures armes du monde IA à votre service.
– J’ai toujours cru que c’était l’esprit la meilleure arme. »
Rambo 2 : la mission, Marshall Murdock et Rambo.
Ou encore :
« Ce n’était pas ma guerre, c’est vous qui m’aviez appelé, pas moi ! » 😉
rien à voir avec Skynet bien sûr évidement. quand tous ces bidules automatisés avec auto-apprentissage et arbres de décision variables (et plutôt opaques) vont se trouver les uns les autres … j’espère que quelqu’un leur aura appris un bon socle de valeurs humaines
Le futur en marche, ne pas désespérer de voir un jour Skynet nous dire et prouver toute son affection……
« Science sans conscience…. »
Gestion algorithmique des affaires humaines, aujourd’hui la guerre :
https://www.geo.fr/geopolitique/israel-gaza-lavender-effrayante-intelligence-artificielle-israelienne-qui-a-marque-37000-cibles-humaines-hamas-maisons-morts-bombes-219593
Tous les domaines sont connectés :
https://usbeketrica.com/fr/article/6-raisons-de-faire-confiance-ou-pas-aux-algorithmes
Il y a quantité de tâches qui peuvent être automatisées :
https://www.swiftask.ai/blog/taches-pouvant-etre-automatisees-par-lia-dans-votre
C’est toujours une course aux profits car bénéficier de l’intelligence artificielle demandera de grandes ressources.
https://www.tom.travel/2024/04/16/ia-10-tendances-qui-caracterisent-le-marche-en-2024/
La convergence des sociétés humaines par la volonté de tout contrôler, trait psychologique commun à tous les assoiffés de pouvoir :
https://www.lefigaro.fr/vox/monde/chine-et-occident-convergeront-ils-vers-une-gestion-des-individus-par-algorithmes-20211226
Bonjour Plusdepognon, vos articles sont très intéressants ; si vous avez d’autres sources d’infos sur le sujet je suis preneur
Bonsoir @ Julien,
Internet est à vous et en fonction de vos clics vous lirez ce que vous aimez lire, c’est dire si on a raison de penser ce que l’on pense…
Je vous avoue un faible pour monsieur Eric Sadin, pourtant le philosophe à crinière et à col de chemise ouverte n’est pas ma tasse de thé…
https://www.thinkerview.com/eric-sadin-ia-le-devenir-legume-de-lhumanite/
Les métiers des cols blancs seraient les plus menacés :
https://www.lebigdata.fr/chatgpt-metiers-grand-remplacement
La programmation des algorithmes est un business pour très grandes fortunes qui ont des biais cognitifs très puissants :
https://youtu.be/oJHfUv9RIY0
Parfois le destin de l’humanité s’est joué à des prises de décisions « irrationnelles »…
https://www.radiofrance.fr/franceculture/crises-nucleaires-cinq-fois-ou-l-humanite-a-failli-disparaitre-7675104
Bien à vous.
Nous sommes en l’an 5000, presque 3 millénaires que les machines se font une guerre éternelle, océania contre eurasia. La pollution est telle qu’il n’y a plus de vie depuis très longtemps, les IA sont en mode automatique, et dirigent d’énormes machines-vers usines terrassant et fouissant jusqu’à plusieurs dizaines de km sous terre, pour produire les millions de drones bataillant à la surface. A chaque nouvelle stratégie détectée, l’autre IA développe une contre-stratégie.
Un film qui m’a énormément marqué étant gamin, « planète hurlante » film de science-fiction militaire racontant l’évolution d’IA alliées aux drones. Une fois lancée la production, aucun humain n’était plus capable de contrer une IA.
Je suis dubitatif. Si la source de tous les maux, l’humain , est éradiquée comment le monde peut il être pire ?
Je crois que notre plus puissante ennemie et meilleure alliée nous aura remis à notre place… Dame Nature se rappelle à nous.
Ah si, il faudra bien des humains pour creuser, ça coute moins cher qu’un robot. Il nous restera ça. Devenir des machines à notre tour.
@ lxm. La singularité technologique. C’est une hypothèse et un sujet de réflexion très intéressantes. Un peu trop souvent vue avec un œil catastrophiste à mon avis .
https://fr.wikipedia.org/wiki/Singularit%C3%A9_technologique
Y’a pas à dire , la race humaine va bien réussir à s’auto-détruire avant la fin de ce siècle !
ce sera un net soulagement pour tous les animaux …
… sauf s’ils sont détruits également comme « dommages collatéraux ».
Et Macron il n »‘a toujours pas d’intelligence artificielle pour prendre ses décisions ? en même temps on savait qu’il se fiait à sa bêtise naturelle, endoctriné qu’il est par les ultrariches dont l’unique soucis c’est de na pas payer d’impôts et de faire porter le blame de leurs propre avanies sur les migrants et les pauvres, c’est quand même bien rétrograde tout ça !
D’ailleurs en parlant d’impôts et vu que c’est la saison, Macron se vante d’en avoir supprimé le plus comme président, mais avec l’inflation les impôts qui restent à payer sont mille fois moins supportable que ceux qu’il y avait avant… pour la simple raison qu’ils ne sont pas supprimés mais juste déplacés, un tour de passe passe de magicien…
Les collègues horticulteurs, qui ont bien des soucis pour faire pousser leurs soucis, l’affirment haut et fort : le mot souci s’écrit sans s au singulier, qu’il s’agisse du tracas ou de la fleur.
L’unique souci, un plant de souci, un gros souci, un souci en pot, le palais de Sans-Souci, une fleur de souci, se faire du souci, un souci jaune vif, le souci de plaire, un souci à la boutonnière.
@Thierry le plus ancien .
« Bêtise naturelle, ??
J’aime bien les mecs qui n’ont pas dépassé le brevet des collèges, traiter d’idiot un »goy » choisi comme associe gérant par les dirigeants de chez Rothschild qui, c’est bien connu, prennent le premier Bardella qui passe .
Mille fois, seulement ? Un million de fois, peuchère !
Je me méfie de cette utilisation de l’IA.
Ce bidule est en fait une optimisation du conformisme. On nourri la machine avec des milliers, ou beaucoup plus d’exemples numérisés, et elle fait un travaille statistique dessus.
Donc en réalité le bidule me fait penser aux vietmins qui pendant la guerre d’Indochine préparaient minuteusement leur attaque, répétant des dizaines de fois sur des maquettes grandeur nature du fort des français, et d’après les témoignages des anciens, si les gaulois réagissaient de manière non prévue, ce qui arrivait souvent, les vietmins pouvaient en être déconcertés et avaient u mal à prendre des initiatives adaptées.
Je suis allé voir le site
https://www.udio.com/
J’ai écouté différents morceaux de musique générés par IA.
Celui-ci de country fait illusion mais peut être parce que je ne suis pas un connaisseur du genre.
Robots Stole my job!
https://www.udio.com/songs/8JxYbHqpuDwJyg8247Br2y
Au passage, regardez le nombre de cordes de la guitare et le nombre de
doigts du vieux joueur du Bayou.
Par contre les morceau de musique classique ou baroque ne font impression que quelques secondes. Ces musiques doivent être rigoureusement construites, en particulier la musique baroque, selon des règles que l’IA n’a pas intégré, puisque ce bidule fait en réalité une espèce de moyenne des morceaux qu’il connaît. Donc pour une oreille
attentive d’un amateur de musique classique ou baroque, c’est un fatras de trucs assemblés sans ligne directrice.
N’est pas J. S. Bach ou J. Brahms ou Chopin qui veut.
https://www.udio.com/songs/wWp3MiStwWsPN629qa2M6c
https://www.udio.com/songs/fAQR5nyJ12tyCxBf57V9fz
Ça peut servir de musique d’ascenseur.
Par contre là, à part un certain scintillement du son, on pourrait s’y croire.
Agressivité, vulgarité, intolérance, ce sont bien des antifa.
https://www.udio.com/songs/1xKMhzu3mYTMvXqMW6mobo
L’IA va faire des progrès, et à ce moment là, logiquement, on devrait arriver au monde décrit par lxm.
Peut être est-ce pour cela que Herbert dans son roman Dune parle du « Jihad butlérien ».
https://fr.wikipedia.org/wiki/Jihad_butl%C3%A9rien
https://www.techno-science.net/glossaire-definition/Jihad-Butlerien.html
Si l »IA est vraiment intelligente, et donc utilisée par toutes les armées du monde, elle dira « Ne faites pas la guerre, bande de C..s » …
on connaît l’expression de Paul Valery « la guerre est le massacre de gens qui ne se connaissent pas au profit de gens qui se connaissent et ne massacrent pas »…on va devoir la remettre à jour « la guerre est le massacre de gens qui ne se connaissent pas mais elle est organisée par une seule IA mondialisée » du moins c’est ce qui nous attend.
On n’est pas dans le fantasme Skynet.
Le défi ici est beaucoup plus prosaïque, il s’agit « d’inverser la proportion 70/30 ». Il est résumé dans ce schéma :
http://media.licdn.com/dms/image/C5612AQELQ-ARXfE3dg/article-inline_image-shrink_1000_1488/0/1583138114213?e=1718841600&v=beta&t=QlF84L8qx1-1sMPnQcI4q-_36c2CMrlfSyfZ9sxLFig
–
Aujourd’hui les militaires d’un état-major passent 70% de leur temps à collationner, filtrer, nettoyer, recouper, valider les immenses quantités d’informations qui leur proviennent de capteurs techniques (et humains) toujours plus nombreux, plus variés et plus connectés.
Ils passent donc seulement 30% de leur temps à faire leur vrai travail : planifier la manœuvre opérative, souvent interarmées voire interalliée, en prenant les hypothèses les plus réalistes avec la meilleure gestion des risques et des ressources pour les objectifs recherchés.
L’idée est donc d’inverser cette proportion, en faisant faire par la machine toutes ces tâches fastidieuses sur les informations que l’homme fait actuellement. Il s’agira par exemple de recouper automatiquement des images provenant de plusieurs capteurs, prises sous des résolutions et angles différents, pour valider en 1 clic qu’on parle bien de la même cible potentielle.
Outre le fait de permettre à un état-major de mieux exercer son métier, l’idée est aussi de retrouver l’avantage du facteur temps : quand on planifie et exécute une manœuvre opérative combinée plus rapidement que l’adversaire, on a déjà pris l’ascendant.
Assez significatif que vous soyez le seul à faire le lien IA et Etat-Major. 🙂
Pour « gagner du temps », l’IA aurait-elle eu l’idée de trancher le noeud gordien?
@ vrai_chasseur
Si l’intelligence artificielle écréme et compile les renseignements pour la désignation des objectifs, elle commande de faitles manœuvresqui en découlent « en guidant ».
Comme les américains nous l’ont appris avec le renseignement pendant l’opération DAGUET en 1991, entraînant les créations de la DRM et du COS.
Qui renseigne, commande.
Un de mes premiers chefs de corps disait : « Et au bout du bout le fantassin meurt d’une balle »
A méditer.
Tant que l’homme contrôlera la prise de décision finale, l’IA est un atout.
Si l’IA est autorisée à s’émanciper de tout contrôle humain en final, c’est le début de l’activation du syndrome chinois à la civilisation humaine par cette technologie. Espérons que le pire sera évité
Si l’Intelligence fait son entrée au sein des Armées, c’est que la fin est proche !
Transformer les troufions en joueurs de jeux vidéo, c’est la dernière prouesse du lobby idéologique qui veut la fin de l’occident .
Toute personne ayant déjà pu tâter de l’I.A a pu se rendre compte de la pauvreté, de l’inanité et donc de la dangerosité de ce truc à la mode qui est vendu par des VRP comme le summum du développement humain, alors qu’il en est un des fossoyeurs..
Il est certainement bon d´explorer tous les domaines qui pourraient être utilisables pour l´action.
D´autant que l´IA, dépourvue d´émotions, infatigable restera rationnelle quand une intelligence humaine insuffisamment aguerrie aura des faiblesses.
Toutefois je reste très réservé à cause de la judiciarisation du commandement.
Au cours des opex plusieurs chefs tactique tactiques ont dû prendre des initiatives qui les auraient conduits aux Assises si ça n´avait pas marché. L´exemple le plus connu est certainement Vrbanja mais il y en a beaucoup d´autres.
Par conséquent je crains qu´à l´avenir on puisse reprocher au chef tactique de n´avoir pas suivi les préconisations de l´IA.
Avant d´aller plus loin dans cette exploration, il faut demander à l´IA quels conseils elle aurait donnés dans telle ou telle situation bien connue du passé.
Il suffira de mettre une fausse info dans la bécane pour que l’IA recrache une solution bancale voir erronée, mais cela effleure-t-il les beaux esprits parisiens qui veulent se décharger de leurs responsabilités au profit de l’IA ?
Une IA se fie systématiquement aux biais cognitifs de ses programmeurs, avec leur intelligence manifestement pas artificielle… On a pas fini d’errer dans l’absurde selon le proverbe « errare humanum est, perseverare diabolicum ».
De même qu’un Etat Major avec des informations d’origine humaine erronées prendra la mauvaise décision.
L’IA ne décharge en rien de la responsabilité. Pas encore, en tous cas.
Voir le commentaire de vrai_chasseur un peu plus haut : l’IA sert à condenser rapidement une masse de données, elle ne sert pas à remplacer le décisionnaire, celui qui a la responsabilité du choix.
Pour dire « et même », il convient d’employer l’adverbe « voire » (généralement précédé d’une virgule) plutôt que le verbe « voir » (qui n’a pas ce sens).
Pour que l’IA recrache une solution bancale, voire erronée.
Sourires : Enfin nos beaux militaires vont avoir une intelligence, mais artificielle. Donc il y a longtemps, plus de 50 ans, les anciens du Larzac avaient bien vu le problème. Cela fait plaisir de voir les choses changer, mais il aura fallu du temps.
S’il mise uniquement sur l’IA pour soulager le commandement de certaines tâches, et ceci alors que d’autres pays ont déjà ou sont en train de dépasser ce stade, sincèrement, il y en a vraiment plus qu’assez de notre clique de Décideurs et Penseurs , qui se prennent pour des cerveaux et incessamment bloquent notre pays à l’ »Insuffisance ». De plus lorsqu’on sait que dans l’IA, nous sommes au top mondial, il n’est pas difficile de comprendre que d’ici peu les meilleurs de nos chercheurs qui seront bloqués par ce ramassis d’abrutis, iront travailler aux USA,en Allemagne et ailleurs. Bref, encore une réaction qui explique pourquoi nous sommes déficitaires dans l’économie, le spatial etc., et là franchement, il faut empêcher tous ces bureaucrates et technocrates de décider pour nous tous, et les limiter à leur niveau afin de placer au-dessus des personnes compétentes. En effet, ces dernières sont légion dans notre pays, et il y en a plus qu’assez de les voir briller à la NASA, la Silicone Vallée et dans les universités americaines, et ainsi par leur absence que notre pays tombe et régresse. Bref, dehors les Nuls!
Ne vous énervez pas, JILI.
Bien sûr vous avez raison.
Mais explorer des voies nouvelles n´est pas mauvais. À condition de ne pas céder à un effet de mode.
.
Car ce que l´on appelle aujourd’hui avec exagération « intelligence artificielle, ce n´est pas vraiment nouveau.
Seule l´appellation est nouvelle, ce qui suffit à en faire une nouveauté sensationnelle pour la presse.
.
Il faut, sans se priver d´examiner ce qui semble être une nouveauté peut-être féconde, savoir ne pas céder à l´emballement de la mode.
Ni à l´inverse, comme vous le faites, rejeter en bloc et peut-être trop vite une nouveauté qui mérite un peu d´attention.
.
Quant à moi, j´y suis réticent comme je l’ai dit plus haut, parce que ça risque de paralyser l´initiative des décideurs du niveau qui est l´un de nos points forts : les décisions de terrain.
Le « syndrome du général-caporal », c’est déjà le cas avec ce qui sous-tendait FELIN et ce que l’on appelle depuis le « sparadigme ROVER » :
https://www.areion24.news/2010/07/13/le-paradigme-rover-paradoxes-de-la-standardisation-en-coalition/
Les types se mêlent du niveau chef de groupe et perdent tout stratégiquement.
Puis ils écrivent des livres pour se dédouaner.
« La clique des technocrates et bureaucrates incompétents, abrutis et nuls ».
Passez les concours pour arriver à leurs postes au lieu de chanter vos refrains populistes.
« un corpus de données d’entraînement souveraines pré-identifiées par l’armée de Terre [documents de doctrine, thèmes tactiques, etc.] », explique l’AID »
Je plains l’IA qui va devoir ingurgiter ce genre d’info. La pauvre! C’est un peu comme devoir manger un repas déjà mangé.
cela me fait penser à la scène de « Démolition Man » quand les policiers pour interpeller un criminel sont assisté par une IA leur disant quoi faire xD.
le suspect refuse d’obtempérer,
IA: « dans ce cas la augmenter le ton de votre voix et rajouter « si non » XD j’ai hâte.
Avant dernier step avant que les robots facent la guerre à notre place
@Palu
Pas vraiment, la dernière étape est bien décrite dans le film « Collossus, the Forbin Project » de 1970 (en français « Le Cerveau d’Acier »)… 😉
https://www.youtube.com/watch?v=kyOEwiQhzMI
https://fr.wikipedia.org/wiki/Le_Cerveau_d%27acier
Si l’on veut se référer au cinéma pour ce sujet, il faut ne pas manquer « l’Odyssée de l’espace », de S. Kubrick sur une idée d’A. C. Clarke : dans la lutte à mort entre le spationaute et l’ordinateur de bord qui est le summum de l’intelligence artificielle, l’homme gagne parce qu’il trouve une solution de survie tellement illogique que la machine ne pouvait pas la prévoir.
Avant que les robots fassent la guerre.
L’humain devient de toute façon un corps de plus en plus étranger sur le champ de bataille.
Ne pas oublier d’alimenter l’IA en paramètres carbone et interwokediversectionnalité les gars.
Pas de risque Skynet avec ça.
Pas de risque non plus de gagner une guerre, mais bon, sans l’IA on se débrouille aussi.
Adieu la créativité. Adieu la réactivité face au brouillard de la guerre. Adieu l’originalité conceptuelle.
Pendant que les méga-ordinateurs compulseront les résultats confrontés de leurs Kriegspielen, les vrais humains, s’il en reste, continueront à s’affronter dans de vrais guerres… en prenant les options rejetées par les super-calculateurs.
Si l’IA arrive jamais à un minimum de logique intelligente, ce dont je doute, elle devra explorer la sémantique générale et ne pourra prendre aucune décision parce qu’elle aura compris les conséquences du fait que « la carte n’est pas le territoire » et que la logique aristotélicienne repose sur des bases purement abstraites que contredit régulièrement la réalité (cf. A. KORZYBSKI: Science and sanity)! Une des raisons pour laquelle F. HERBERT bannit les ordinateurs depuis longtemps dans le cycle de Dune.
Nos généraux vont ils être mis à la retraite ?
Et si la solution pour contrer l’IA d’une armée adverse, c’étaient quelques chefs militaires déjantés et imprévisibles qui n’hésitent pas à faire l’improbable, assistés par un soutien logistique qui suit en toutes circonstances? Trop de rationalité conduisant à la prévisibilité et au statut quo, il serait intéressant de voir comment se comporte l’IA face à « l’irrationalite tactique » (à ne pas confondre avec le suicide inconscient)
Alfred, je suis d´accord : si l´on s´enferme dans des algorithmes (et l´IA ne sait pas faire autrement) on devient prévisible et à la merci d´un ennemi capable d´être illogique.
C’est ce que je voulais souligner par ma précédente intervention.
C’est pourquoi l´on ferait bien de demander à l´IA ce qu’elle aurait fait dans telle ou telle situation du passé.
Exact, Alfred : en opex on a souvent eu affaire à des ennemis qui n´avaient pas la même logique que nous.
Et encore moins la même logique que les informaticiens.
@ Anvien des opex
Et ils ont gagné à la fin, vu comme on s’est fait dégagé, même des pays africains.
C’est en route pour nous dégagé aussi des DROM-COM sous prétexte de « décolonisation ».
Le statut, c’est un ensemble de textes qui régissent une situation.
La statue, c’est le perchoir favori des pigeons sur la place.
La stat tue, c’est un chiffre que l’on ne révèle pas.
La stat tue, c’est aussi la raison pour laquelle on s’abstient de la révéler.
Les Status Quo, c’est un groupe de rock : (Live in Birmingham 1989) https://www.youtube.com/watch?v=orGoFZIh_Vk
Le statu quo, c’est du latin pour dire que rien ne change.
Trop de rationalité conduisant à la prévisibilité et au statu quo, il serait intéressant de voir comment se comporte l’IA face à « l’irrationalité tactique ».
cette étude initiée par la CEMAT mérite quelques réflexions.
on peut toujours craindre le syndrome Terminator et on aurait raison dans la mesure où la guerre s’appropriant toujours les progrès technologiques (les drones en sont un exemple parfait), on peut craindre qu’une IA génère des solutions qui sortent du contrôle humain.
dans le cas présent, je comprends qu’il s’agit d’aider à la décision en proposant des options tactiques construites autour de la MEDOT au niveau d’une brigade et c’est important. car il faut bien retenir un point essentiel que nous redécouvrons : une birgade engagée dans une action de haute intensité ne pourra pas A lA FOIS conduire sa mission et planifier la suivante. sauf si on double les effectifs de ses CO. le tempo de la manoeuvre, l’usure physiologique et psychique du C2 sera trop élevé. l’intensité des opérations et la sauvegarde du système de commandement imposera une articulation centrée alternativement (et plus simultanément) sur la conduite de l’opération en cours ou sur la conception de la suivante. c’est en ce sens que l’IA devrait permettre d’aider le chef tactique.
si l’IA propose des modes d’actions amis et ennemis robuste, elle ne fera pas plus mal que des officiers traitants « rincés » qui pourraient oublier en cours de route quelques principes de tactique. l’histoire regorge « d’erreurs fatales ». je ne dis pas que l’IA fera mieux mais qu »elle proposera « à la place de »…
il s’agit donc de demander à une IA d’analyser, l’ennemi (sa manœuvre, ses intentions, le cadre espace-temps, etc.) le terrain (et pas seulement les « couloirs de mobilité » mais de faire une étude poussée de la traficalbilité des axes, adaptées aux capacités de la brigade en question,) les capacités log, les problèmes de liaison , etc. Il s’agit donc de faire gagner du temps dans l’analyse des données car c’est le seul aspect que la numérisation ne permet pas de réduire. on peut collecter plus vite, on peut fusionner plus vite (avec une erreur majeure d’interprétation -mais l’IA fera pareil.
enfin, le chef tactique restera seul responsable. c’est un principe éthique
On a demandé récemment à une IA dessinatrice de représenter des soldats nazis. Elle produit le portrait d’un soldat blanc, d’un noir, d’un asiatique et d’un arabe … Biberonnée à des données US, l’IA est devenue woke !!!
Vive l’assistance de l’IA pour s’entretuer et détruire : c’est le progrès, et si l’IA le dit, c’est que c’est vrai.