MBDA améliore la capacité de tir au-delà de la vue directe du missile antichar Akeron MP grâce à l’IA

En 2018, MBDA se vit confier par la Commission européenne la direction du projet EU BLoS [Beyond Line of Sight] au titre de la Coopération structurée permanente [CSP ou PESCO]. Réunissant la France, la Belgique et la République de Chypre, celui-ci devait permettre le développer une gamme de missiles antichars dotés d’une capacité de tir au-delà de la vue directe [TAVD] « à retour image avec l’homme dans la boucle ».

Puis deux ans plus tard, dans le cadre du Programme européen de développement industriel pour la Défense [PEDID], ce projet fut confirmé via le financement d’une première phase de développement appelée LynkEUS. Impliquant une dizaine d’entreprises, elle consistait à utiliser un drone aérien pour repérer des cibles et communiquer leurs coordonnées à un poste de tir du missile Akeron MP [développé par MBDA], dont la portée avoisine les 5 km.

Depuis 2022, dans le prolongement de LynkEUS, MBDA coordonne le projet MARSEUS [Modular Architecture Solutions for EU States] qui, financé par le Fonds européen de défense [FED], doit permettre de « consolider » un « concept opérationnel européen autour de la capacité TAVD des missiles du combat de contact et du combat collaboratif consolidé au travers d’une vision de Gestions des Effets ». En outre, il vise aussi à « identifier et à expérimenter de nouvelles solutions technologiques émergentes susceptibles de contribuer aux évolutions futures de ces architectures de systèmes d’armes ».

À l’occasion de l’édition 2024 du salon de l’armement aéroterrestre EuroSatory, MBDA a dévoilé une avancée intéressante en matière de capacité TAVD. En effet, le système de missile Akeron MP disposera à l’avenir de la solution « Ground Warden », censée répondre « au besoin croissant de réactivité et d’assistance des opérateurs sur le terrain, dans un environnement de plus en plus dynamique ».

Selon les explications de l’industriel, « Ground Warden » repose sur un algorithme d’intelligence artificielle [IA] dite de confiance. Elle permet ainsi « d’accélérer et de fiabiliser les engagements au-delà de la vue directe », en « facilitant l’aide à la décision et la coordination entre les systèmes, tout en conservant l’homme dans la boucle ».

Ainsi, associé au poste de tir, le module « Ground Warden » pourra recevoir les images captées par un premier missile tiré contre une cible. Grâce à l’IA, il va les analyser afin de détecter d’autres menaces éventuelles, lesquelles seront « traitées » par l’opérateur. Ce dispositif fonctionne également avec le flux vidéo transmis par des drones aériens.

Selon MBDA, Ground Warden continuera d’évoluer et fera régulièrement l’objet de mises à jour logicielles afin de « répondre aux demandes de clients confrontés à des menaces en évolution rapide dans un contexte de haute intensité ».

Conformément à l'article 38 de la Loi 78-17 du 6 janvier 1978 modifiée, vous disposez d'un droit d'accès, de modification, de rectification et de suppression des données vous concernant. [Voir les règles de confidentialité]

20 contributions

  1. Paul Bismuth dit :

    Cette « IA de confiance » élaborée par des entreprises privées certifiés « de souveraineté ».
    Le retour des guerres privées en somme,qui existait avant la notion d’État-Nation des traités de Westphalie…

    Belle présentation extrêmement cinématographique, sans parler du biais cognitif du technologisme qui est le nôtre depuis la professionnalisation des armées où la qualité des matériels militaires devait compenser la masse des soldats disparus de l’ordre de bataille; à ne pas oublier l’évidence est que l’ennemi aussi veut vaincre!
    https://theatrum-belli.com/une-analyse-des-defis-et-vulnerabilites-induits-par-la-technologie-au-sein-de-larmee-de-terre-ccf/

    • joe dit :

      La technologie compense factuellement la masse, vu et validé tous les jours en Ukraine. Ce qui manque c’est la masse… de vecteurs (systèmes + munitions) en cas de guerre longue.

  2. Prof de physique et vieux linuxien dit :

    La dernière fois que j’ai lu un texte qui parlait d’informatique de confiance, il décrivait des dispositifs des GAFAM, microsoft en tête, pour mieux contrôler nos ordinateurs. Un peu comme avec le F-35.
    J’espère que ce n’est pas une logique similaire qui est abordée ici.

    • Arthur dit :

      Il ne s’agit pas d’informatique de confiance, un concept vague, mais de « Trusted AI », un concept qui a un sens bien spécifique.
      L’intelligence artificielle est mal comprise par la majorité des gens. Certains pensent que Chat GPT analyse lui même les données alors que ce n’est qu’un algorithme qu’un « grand modèle de langage ».
      Pour ce qui est de « Trusted AI », le concept est qu’il est développé pour minimiser les risques pour l’utilisateur. Cela a plusieurs impacts dans l’entraînement de ces « intelligences ». L’utilisateur contrôle les données nourries, ce qui n’est souvent pas le cas avec l’intelligence artificielle qui est une boîte noire. Et il y a des éléments de mitigation des risques.
      Qu’est ce que cela signifie ici? C’est un missile anti-char, donc dans l’idée, il y a la possibilité de lui donner toute une liste de cibles potentielles pour le nourrir, et l’entraîner à différencier le matériel d’un pays et d’un autre. Il y a la possibilité également d’avoir les militaires équipés de signaux lumineux sur le champs de bataille pour informer l’intelligence en question que ce ne sont pas des cibles.
      Mais il y a surtout un point final dans cette intelligence, c’est que c’est une assistance et pas un outil qui prend des décisions. Bref, il y a un sens derrière ces mots qui est compris par les industriels, les ingénieurs, les scientifiques, aux médias et aux armée de faire l’effort de ne pas utiliser ce terme aveuglément et de le définir pour les lecteurs / utilisateurs.

      • FNSEA dit :

        Dans nos belles campagnes françaises, nous ne mesurons pas encore ce qu’une « trusted AI » peut nous apporter, mais nous avons la certitude absolue que le mot champ s’écrit sans s au singulier.
        Le champ de bataille, le champ de blé, un champ de force, un champ de lavande, le champ de mines, le champ de betteraves, un champ opératoire, un champ de tournesols, le Champ-de-Mars, le champ de carottes, un champ de manœuvre, un champ de luzerne, le champ magnétique, le champ de colza, un champ de courses, un champ de maïs, le champ d’honneur, le champ de bleuets.

  3. Rakam dit :

    Ahh l’IA ….vivement les humanoïdes que l’ont assiste à nos guerres sur nos canapés, comme un match de foot avec des fans- zone dans les pays concernés….naturellement au fond de nos bunkers gracieusement payé avec des aides financières de l’état…

    • dolgan dit :

      vous avez oublié de citer 1984 .

      • Rakam dit :

        @ dolgan…bien vu, lecture à recommander…de nos jours…

      • Vivement demain... dit :

        Si on en arrive là…
        Je préfère un humanoïde féminin…
        Une version top-modèle avec gros sein, qui n’a jamais de migraine…
        Je passe sur le reste des options et détails bien aguichant…

    • MNHN dit :

      Vous voulez plutôt parler d’androïdes.

  4. Thierry le plus ancien dit :

    gagner du temps pour repérer des cibles, oui mais à condition que ça ne génère pas des erreurs de fausse identification ce qui serait un gaspillage de munition intelligente qui coutent si cher.

    On a vu que l’IA sur le choix des cibles à Gaza a généré pas mal d’extravagance et d’erreurs, ça se supporte militairement parlant quand il n’y a pas pénurie de munitions, mais le même système en Ukraine aurait séché les stocks trop vite et en pur perte.

    • joe dit :

      Citation : « mais le même système en Ukraine aurait séché les stocks trop vite et en pur perte »… A bon ? vous avez des stats des munitions utilisées « abusivement » ? Autant à gaza, le risque est majeur car toute erreur implique des morts civiles, autant dans une guerre de haute intensité ou l’essentiel se fait dans des grandes plaines ou des villes, villages totalement abandonnés, le risque est juste celui d’utiliser de temps en temps, une munition chère pour un objectif qui auraient pu être traité différemment ou simplement abandonné. La programmation spécifique à ces modèle d’IA progressent tous les jours grâce à l’observation et l’augmentation des capacités électroniques. de plus il existe d’autre solution que l’Akeron ou le Javelin, qui coûtent très chers. Les drones à bas coûts (moins de 1000€ ne vont faire que progresser en autonomie. Même si l’usage d’électronique plus sophistiquée en quadruplait le prix (pour un temps), cela représenterait 20 drones versus un missile. De quoi se permettre 10 voir même 20 % d’attrition. Cela ferait encore 16 à 18 cibles neutralisées !

      • Thierry le plus ancien dit :

        Vous faites bien de dire que l’AI progresse car pour l’instant ça n’est pas convainquant du tout de mon point de vue, il y a encore beaucoup de chemin à parcourir pour qu’il devienne fiable et qu’on puisse l’utiliser, ce jour viendra mais pas aujourd’hui ni demain.

        Le drame de l’IA c’est son incapacité à être imprévisible, de fait un adversaire un peu plus malin pourrait poser des leurres pour vous obliger à dépenser vos munitions sans rien détruire d’important car ils connaîtront par avance le comportement de l’IA et sauront trouver le bon appât.

        c’est déjà ce que fait le Hamas quand il se protège derrière des civils, obligeant les israéliens à les épargner ou les détruire avec les civils.

        En Ukraine il y a 1000 km de front, on ne parle pas de même volume de feu quand on compare à Gaza, des villes sont rasés dans les deux cas avec des civils pris au milieu.

        A l’ère des munitions de précision on ne se réfugie pas dans le tapis de bombe sous prétexte de ne pas être capable d’obtenir des résultats en précision. Les russes sont très mauvais en précision, c’est bien pour cela qu’ils attaquent des cibles civils, centrale électrique, etc parce que les cibles militaire ukrainienne leur échappe. Ce qui ne leur donne pas d’excuse pour leurs crime de guerre pour autant. ils tuent et détruisent en connaissance de cause.

      • Avekoucenzeh dit :

        Pour dire « et même », employons l’adverbe « voire » (généralement précédé d’une virgule), jamais le verbe « voir » (qui n’a pas cette signification).

        De quoi se permettre 10, voire même 20 % d’attrition.

        En outre, la tournure « voire même » est à éviter car constitutive d’un pléonasme (« et même même »).

        De quoi se permettre 10, voire 20 % d’attrition.

      • Shareholder dit :

        L’Akeron et le Javelin ne coûtent pas très « chers », ils coûtent très cher.

        Après le verbe être, « cher » est un adjectif et s’accorde (cher, chère, chers, chères), mais après un verbe d’appréciation (coûter, payer, acheter, valoir, revenir…), « cher » est un adverbe et est invariable.
        C’est le même fonctionnement que pour « lourd » : elle est lourde, elle pèse lourd.

        L’Akeron et le Javelin sont chers, l’Akeron et le Javelin coûtent cher.

  5. blavan dit :

    Avec un tel concept, comment peut-on encore investir des milliards dans les chars lourds dans l’avenir . A moins que cette présentation vidéo soit une fois de plus qu’une pompe à subvention ?