Numérique : L’important projet ARTEMIS du ministère des Armées est-il trop ambitieux pour réussir?

Conformément à l'article 38 de la Loi 78-17 du 6 janvier 1978 modifiée, vous disposez d'un droit d'accès, de modification, de rectification et de suppression des données vous concernant. [Voir les règles de confidentialité]

58 contributions

  1. Hermes dit :

    En info, peu importe quand tu te lances, tout évolue en cours de route.
    Donc l’argument « Dans 3 ans tout aura évolué ».
    C’est valable depuis 50 ans.
    .
    On est constamment en train de se mettre à la page.
    .
    Donc la question c’est plus de savoir si les équipes seront suffisamment bien encadrer pour pouvoir développer les solutions nécessaire tout en ayant assez de flexibilité pour incorporer les éléments nouveau en cours de route.
    Quand à l’hardware… Même combat, si t’attends 3 ans pour avoir le dernier calculateur IA +++ top 3000, bah 6 mois après t’auras le *** supra 4000.
    Donc les questions deviennent:
    -Faut il avoir un système imparfait mais opérationnel, ou aucun système ?
    -Le coût justifie t’il le gain ?
    -Pourrons nous permettre d’investir sur le long termes sur des mises à jours régulièrement, software ET hardware(Ce point est le plus problématique) ?

    • jean dit :

      le problème du hardware est fondamental.
      J’espère que l’utilisation de processeurs AMD ou INTEL (ou chinois) est exclue et que l’utilisation de processeurs ST est la seule envisagée.
      On a bien analysé les portes dérobées dans le coeur des pentiums 3, cela n’a pas du s’arranger depuis.

      • Patatra dit :

        Il n’y a qu’à se pencher sur le machine Engine Intel pour avoir quelques questions à se poser.
        Dans cette affaire le niveau de confiance US/PCC est le même.

    • PicNicDouille Cémoi Landouille dit :

      En info, peu importe quand tu te lances, tout évolue en cours de route.
      Donc l’argument « Dans 3 ans tout aura évolué ».
      C’est valable depuis 50 ans.
      .
      On est constamment en train de se mettre à la page.

      exacte. d’ailleurs en IT on appelle ça le développement itératif, c’est ce que font les GAFAMs comme la plupart des autres compagnies

      -Faut il avoir un système imparfait mais opérationnel, ou aucun système ?
      moi je penche pour un système imparfait, sans entrer dans les détails, google avait gagné la bataille contre yahoo on appliquant ce principe… et c’est quelque chose qui est fait par tous (ou presque) en IT

      je trouve un peu fort quand il dit que  » l’IA évoluent très régulièrement » ça n’est factuellement pas vrai, ce sont les usages, on voit de nouveaux usages apparaîtrent régulièrement, mais les algo ont peu changés depuis les années 80… la grosse évolution est dans la « data » qui est devenue « big »

  2. Raymond75 dit :

     » la possibilité d’effectuer des « analyses multidimensionnelles sur la base de critères géographiques, temporels, relationnels ou statistiques » ; que ceux qui n’ont pas tout compris ne lèvent pas la main.

    • Jo666 dit :

      Simple, pour le compte rendu de critères à multi dimensions, on demande au système les mouvements de troupes dans une région et à quelle heure avec le nombre d’hommes, par exemple. On peut voir en fonction des concentrations, les ouvertures ou opportunités d’attaquer les trous de défense ou bien avec les concentrations des bases de ravitaillement

    • Dupont avec un t dit :

      Churchill le faisait très bien …..

    • Felipe dit :

      et oui… depuis belle lurette on a quitté le noratlas, l’amx13 et l’escorteur d’escadre dupetit thouars….

      • Raymond75 dit :

        Et les Talibans vous battent, et après 60 ans d’OPEX en Afrique, le terrorisme s’étend … Mais il faut relativiser : à l’époque du Noratlas et de l’AMX 13, les Viets et le FLN vous avaient déjà foutu dehors !

        • Lagrange dit :

          Nous avons quitté l’Afghanistan en 2012 bien avant la fin de la guerre.

          Après 60 ans d’OPEX en Afrique aucun état de la zone où on opère ne s’est complètement effondré ce qui est un excellent résultat.

          L’ALN aurait été incapable de nous vaincre et si on est partie d’Algérie ce n’est pas parce qu’on s’est fait mettre dehors mais parce qu’on voulait se débarrasser des Algériens, nous avons très bien fait d’ailleurs!

          Seule défaite face au Viet Minh. Les américains ont aussi perdu en Viet Nam, pas de honte à perdre face à l’une des plus puissantes insurection du XXe siècle qu’on a affronté à des milliers de kilomètre de chez nous et contre qui sans Dien Bien Phu on aurait fait match nul.

          Donc cracher sur la France c’est votre droit, vous êtes juste ridicule en sortant des contres vérités et des raccourcis aussi énormes.

    • son anagramme « TAMISER » c’est un tamis à données

  3. Aramis dit :

    « si le caractère intellectuellement séduisant du projet ne fait aucun doute, [il] souligne le fait qu’il y a souvent un décalage important entre la théorie et la pratique dans ce domaine, en particulier eu égard aux divers et nombreux SI au sein du ministère, et qu’il serait regrettable de poursuivre un projet par simple dogmatisme si celui-ci démontre son caractère inopérant et inadapté » comme beaucoup de choses décidé dans les administrations ou les entreprises!

  4. Franz35 dit :

    Aussi, le rapporteur estime que « plutôt que d’élaborer un système unique d’analyse de l’ensemble des données du ministère des Armées, il eut été peut-être plus opportun d’appréhender la problématique par domaines d’activité, en développant un programme pour le MCO, un programme pour les données de santé, etc. ».
    C’est maintenant que l’on se pose la question ? C’est tellement évident qu’il faut séparer des domaines qui n’ont rien à voir (au moins dans un premier temps) pour avoir des outils robustes et fiables.

    • PK dit :

      LA base d’un bon gros logiciels est son découpage en briques indépendantes qui éventuellement peuvent communiquer entre elles.

      Là, on craint le pire… et on en aura sans doute encore davantage !

  5. Olivier Durand dit :

    Avec Atos, Capgemini et Sopra-Steria…. Ça sent déjà la déconfiture à plein nez. Ces trois là n’ont ni la vision technologique, ni les cerveaux et encore moins les compétences requises. Trois entreprises qui vivent du denier public, paient au ras des pâquerettes et nous plantent tous les projets ministériels (cf. Louvois, LNP etc). Bravo!

  6. Jm dit :

    Dans l’armée, diviser pour mieux régner a toujours été le gage d’un grand succès !!!!
    Il vaut mieux diviser, ça pourrait éviter un putsch informatique.
    Un putsch avec des bits pour virer des mecs qui n’ont plus de couilles, ça serait rigolo, non !!

  7. Prof de physique dit :

    Confidentialité ?
    Il suffira de quelques terminaux windows dans le système pour qu’elle commence à être entamée.

    Encore une usine à gaz, qui si elle est infiltrée mettra beaucoup de secteurs en danger. Si c’est trop compliqué c’est fragile.
    Il vaudrait mieux des systèmes indépendants, un système par tâche et qui la fait bien, avec des protocoles et des formats de données permettant un dialogue par des interfaces contrôlées et surveillées.
    Pour les systèmes opérationnels, évidement, pas de microsoft, pas de pomme vénéneuse, mais éventuellement voir du coté des systèmes BSD (FreeBSD, OpenBSD, NetBSD) comme base pour un truc pas trop farci de portes dérobées étasuniennes.

    • FredericA dit :

      => « Encore une usine à gaz, qui si elle est infiltrée mettra beaucoup de secteurs en danger. Si c’est trop compliqué c’est fragile. »
      .
      Et vous pensez réellement qu’il est possible de traiter des milliards d’informations en temps réel avec un système simplissime ? A un moment, il faut arrêter de parler d’usine à gaz à tout propos et (surtout) hors propos. Comparé à un vélo, une voiture est une usine à gaz. Il en existe pourtant des milliards qui roulent sur la planète.
      .
      => « Pour les systèmes opérationnels, évidement, pas de microsoft, pas de pomme vénéneuse, mais éventuellement voir du coté des systèmes BSD (FreeBSD, OpenBSD, NetBSD) comme base pour un truc pas trop farci de portes dérobées étasuniennes. »
      .
      Outre le fait que Windows et certifié par l’ANSII (moyennant un durcissement des paramètres), les principales solutions Linux, BSD, Slackware et autres ont pour contributeurs principaux des éditeurs américains (Microsoft, IBM, Red Hat, Oracle…)
      .
      Un peu de lecture : https://www.polytechnique-insights.com/dossiers/digital/des-machines-et-des-hommes-les-defis-du-numerique/comment-les-geants-du-numerique-sapproprient-le-logiciel-libre/

      • PK dit :

        Vous confondez participer et mettre la main dessus.

        Ce n’est pas parce que IBM participe que IBM a plus voix au chapitre que le développeur dans son coin. D’ailleurs, au final, c’est toujours Torvalds qui décide et ça va rarement dans le sens des grosses boîtes.

        Voici comment il a traité Nvidia, juste le numéro 1 mondial des cartes-vidéo (et accessoirement le plus gros fournisseur de machines à miner du bit coin) :

        https://linuxfr.org/users/patrick_g/journaux/quand-linus-enerve-linus-faire-ca

        Pour votre durcissement de Windows, ça fait écrouler de rire toute la planète. Le seul moment où Windows est un peu près stable, c’est quand il est planté. Et ça ne date pas d’hier. C’est un problème de conception et rien ne pourra y changer, sauf à faire comme Apple en repartant de zéro (avec MacOS X sur une base de… BDS !).

        Bref, architecturalement parlant, Windows est et restera une bouse face à des UNIX-like comme les BSD ou Linux.

        Sans compter que Windows n’offre que ses sources, pas la chaîne de build, donc personne ne peut s’assurer que ce qui tourne vient des sources reçues. Bref, une arnaque made in NSA (Windows a longtemps gardé une clé spécifique qui portait ce nom… Un heureux hasard sans doute !).

    • lgbtqi+ dit :

      +1

      et Linux ?

      • Jm dit :

        Dorénavant, Linux est tout aussi vulnérable.

        • lgbtqi+ dit :

          des pistes pour que je commence à creuser la question ?

          • PK dit :

            Il parait que si l’on vous envoie un virus, que vous le compilez en root et que vous le lancez en root, alors il peut faire des dégâts.

            Voilà en gros tous les POC (proof of concept) qu’on nous sort à chaque fois.

            Ça ne veut pas dire que l’on peut faire n’importe quoi avec la sécu d’un Linux. Comme tout, ça demande un admin (en tout cas en milieu pro). Pour un particulier, quelques connaissances de base et un peu de bon sens suffisent en général.

          • lgbtqi+ dit :

            @ PK,

            Oui, je crois que ça s’appelle un rootkit et il me semble que ça peut également concerner windows.

            Pour le reste, effectivement, un peu de bon sens et de pratique de base permettent à un individu de réduire significativement le risque à son échelle. Linux offre la possibilité d’emporter avec soi et dans sa poche son système d’exploitation et ses données, et j’ai trouvé les réinstallations de système d’exploitation bcp bcp plus faciles que sous windows, qui ne distribue plus de cd / dvd du système d’exploitation et qui se contente de le mettre sur une partie réservée du disque dur.

  8. Sylvain dit :

    L’avantage du MCO, c’est que ce sont des sujets qui sont habitués à avoir de nombreuses données, en général assez fiables : km, potentiels, commandes de pièces, natures des pannes… Donc, en principe, avec du Big Data ou de l’IA, on peut faire apparaître des patterns intéressants. D’ailleurs ARQUUS et Naval Group avaient fait des démonstrateurs en IA assez prometteurs.

  9. farragut dit :

    Pour ceux qui auraient abandonné tout espoir dans l’intelligence humaine, et auraient laissées les clés du camion à une IA suprahumaine genre SkyNet, il reste une présentation utile pour se prémunir de « l’accident industriel » qui pointe son nez avec ce contrat ARTEMIS: celle sur (le retour de) la prééminence du raisonnement causal en statistique médicale, à voir sur YouTube « Raisonnement causal en statistique médicale, la fin d’un tabou » (Pr. Matthieu Million, IHU Méditerranée Infection, le 05/10/2021)
    https://www.youtube.com/watch?v=M0c6_ArWMHo

    On peut se laisser séduire par les extraordinaires capacités de traitement de données massives par des calculateurs gavés de Téraoctets de mémoire vive (et très chère) pour ramener tout le contenu des bases de données en mémoire centrale, mais ce ne sont que des supports de tableaux un peu grand, et les « algorithmes » de classification ne sont que les fonctions que l’on peut trouver dans le logiciel Excel de base.
    Il reste qu’il faut passer 90% du temps « humain » de traitement à épurer les données (« interfacer ») pour les rendre acceptables « par l’IA ». Donc, travail garanti pour des masses de « petites mains », généralement indiennes, qui seront chargées de remettre en forme (formatter) les données avant que peut-être, au bout du compte (en euro), ce magma ne devienne de la connaissance utile…
    Les industriels cités sont bien implantés dans les pays à bas coût pour que les données (médicales, par exemple) se retrouvent à la portée de hackers à l’affut. Même pas besoin d’espionner, c’est déjà écrit dans les contrats (en petits caractères sur la tranche) !
    Quant à la crédibilité des traitements et des résultats, l’expérience des articles sur l’hydroxychloroquine parus dans The Lancet devrait rendre les décideurs plus prudents… 😉
    (Déjà le fait d’une entreprise américaine Surgisphere apparemment sérieuse, mais avec des contrats opportuns de non-divulgation des sources pour éviter tout audit sur le « traitement » Big Data).
    https://evolutionnews.org/2020/06/hydroxychloroquine-paper-scandal-illustrates-scientific-bias-not-only-in-medicine/
    https://www.thehealthsite.com/news/first-scandal-of-the-covid-19-pandemic-lancet-retracts-major-hydroxychloroquine-
    paper-749695/
    https://www.theguardian.com/world/2020/jun/10/surgisphere-sapan-desai-lancet-study-hydroxychloroquine-mass-audit-scientific-papers
    https://evolutionnews.org/2020/06/hydroxychloroquine-paper-scandal-illustrates-scientific-bias-not-only-in-medicine/

    Je suggèrerai bien de commencer par une application « ciblée » sur la « prédiction » des décisions de Bercy quand aux investissements proposés en matière de LPM. Si les algorithmes d’IA « savent » anticiper sur les capacités des Armées, ce sera un bon test.
    Bien sûr, des esprits chagrins pourraient regretter que l’on n’ait pas fait pas tourner les modèles rétroactivement sur les informations et décisions (absurdes, mais « rationnelles » pour Bercy) passées depuis dix ans pour estimer les manques en matériels et en ressources humaines constatés en 2021. 😉
    Le calibrage des modèles devrait pourtant être assez rapide ! 😉

    • Oliver dit :

      EVOLUTION NEWS que vous citez est un site dédié au créationnisme.
      Niveau objectivité il y a mieux.

  10. Frede6 dit :

    Je ne sais pas qui a raison mais ce député à l’air de répéter des arguments de bon sens.
    Mais à quoi sert il d’avoir un inspecteur des travaux pas finis mais déjà bien engagés. Quitte à interférer il vaudrait le faire au stade de l’avant-projet.

  11. Un fatigué du MCO dit :

    Bon article. En effet, si on a un besoin crucial d’un tel système, il ne s’agit pas de le plomber dès le départ en voulant lui faire résoudre tous les problèmes que l’on ne sait affronter aujourd’hui. Ainsi, à mon expérience, y coller le MCO (surtout aéro …) est une grosse bêtise qui traduit l’incapacité actuelle d’améliorer la dispo aéro, sujet assez éloigné du point de départ. Après le Louvois des soldes de l’armée de Terre, on se demande ce qu’est devenu le projet Comp@s qui devait s’occuper de tout, disparu avec des millions d’euros et les centaines (au moins) d’hommes heures. La création de l’agence du numérique de la Défense semble en tirer les conclusions.

  12. ji_louis dit :

    Pour avoir travaillé au COFGC, je peux dire que les « analyses multidimensionnelles sur la base de critères géographiques, temporels, relationnels ou statistiques » sont un outils quotidien de chaque « crise ». Un tel outil permettant d’automatiser ces recherches serait très utile.
    Mais le rapporteur a raison en suggérant de segmenter le travail, ka tâche étant immense, et peu de monde (voire pas du tout) dans les états-majors n’a la capacité de définir précisément à la fois les buts à atteindre et la manière d’y arriver. Dans ces conditions, il vaut mieux revenir à des spécialisations, puis réunir les résultats disparates pour en tirer des points communs.
    Une telle démarche s’appelle « réunir les experts » quand on parle d’humains, c’est aussi pour cela que le COFGC a(vait) en son sein un officier de chaque administrations françaises ayant une responsabilité en mer.

  13. Nexterience dit :

    https://fr.m.wikipedia.org/wiki/Gestion_de_contenu_d%27entreprise
    .
    Artémis ne sera t- il pas un ECM comme un autre?
    Ça relativise son ambition Big data qui est celle, certes moins sensible, de toute société majeure.
    Après tout, l’armée gère des Hommes, des machines, des « chantiers » et est assimilable informatiquement à une société de services… au service de l’État.
    Des sociétés comme EDF sont peut-être plus complexes informatiquement.

  14. Piliph dit :

    Une phrase de Lénine (certains l’attribuent à Marx) m’a toujours donné à penser : il disait qu’un chef était remarquable s’il était capable « d’entendre l’herbe pousser ».

    Ces systèmes, qui analysent des données d’une infinité de sources, seront-ils capables « d’entendre pousser l’herbe », i.e le fait minuscule, qui passe sous tous les radars mais qui signe une évolution importante (une nouvelle tactique de l’ennemi, une nouvelle pathologie en train de se développer « à bas bruit », une pièce d’avion qui s’use trop souvent, ce qui révèle un dysfonctionnement majeur de l’avion, etc. ). Sans même parler du croisement de datas appartenant à des champs divers et dont les différentes « herbes » silencieuses sont à croiser pour qu’on puisse deviner que quelque chose de très gros est en train de se préparer.

    Normalement, ça devrait être son objectif : oui, mais voilà, il y a le piège de l’auto-référence. Ces « machines » ont été conçues par des êtres humains, avec leurs propres biais et leur probable, hors hommes exceptionnels, incapacité à identifier les « herbes » dont il faut surveiller la croissance… Il y a donc fort à parier que ces « machines » ne seront pas plus capables que leurs créateurs d’entendre « pousser l’herbe », donc ne servent pas à grand chose, dans le cadre même des buts qu’on leur assigne : repérer le fait significatif au milieu de la masse de datas que chaque homme, que chaque chose produit chaque seconde. Et le concept d’Intelligence Artificielle ne servira rien si cette machine n’a pas été préalablement nourrie par de malheureuses expériences passées, où le bruit de l’herbe qui pousse a échappé à tous (ce qui ne semble pas être le cas d’après le peu qu’on sait).

    Donc : donner sa chance à cette tentative, certes, mais être conscient de ses limites intrinsèques, donc ne pas trop miser dessus.
    Et continuer, ou commencer si ce n’est pas déjà fait, à repérer ces hommes exceptionnels qui, sans calculateurs, ont ce don merveilleux d’entendre pousser l’herbe…

  15. Ping dit :

    C’est moi ou ça fait penser un un super programme simplifié de gestion unifié des soldes de tout le personnel (avec d’ailleurs des dénominateurs industriels communs) ?

  16. Dupont avec un t dit :

    ARTEMIS c’est la conception « GénétikoMilitaro » d’un mouton à 5 pattes , polyFactorielle, multiCritères, pluriDisciplinaires , le tout à géométrie variable et à élongation spectrale molle dans son cadre espace-temps dispersé..

  17. E63 dit :

    Une nouvelle raison emblématique macronienne de distribuer du budget . ….Des sociétés informatiques au plus mal techniquement et structurellement parlant , qui sont responsables de travaux techniques bien dans l’air du temps … la question est ,à qui profite le crime ? Allez vous renseigner en étudiant l’organigramme et les propriétaires des dites entreprises et vous comprendrez aisément le pourquoi et le comment de cette décision ubuesque ….

  18. Vinz dit :

    Il est normal pour ces projets innovants de tâtonner, de se fourvoyer dans quelque impasse, et donc de jeter du pognon par la fenêtre – c’est inévitable.
    Le principal c’est de ne pas accoucher un mamouth hors de contrôle – mieux vaut alors une fin horrible qu’une horreur sans fin.

  19. Phil dit :

    C’est le même qui a fait LOUVOIS ? Chronique d’un échec assuré….

  20. Plusdepognon dit :

    Et au niveau plus civil, a-t’on du neuf pour le réseau sécurisé de l’Etat (merci @ Jean la Gaillarde) ?
    http://lignesdedefense.blogs.ouest-france.fr/archive/2020/12/22/rrf-21727.html

    https://theatrum-belli.com/thales-et-streamwide-renforcent-la-securite-des-radiocommunications-critiques-4g-5g-des-forces-civiles/

    Car depuis la panne géante des numéros d’urgence avec Orange, pas trop d’infos…
    https://www.lemonde.fr/economie/article/2021/07/22/panne-des-numeros-d-urgence-le-rapport-de-l-etat-souligne-les-defaillances-d-orange_6089198_3234.html

    La panne nationale concernant les numéros d’urgence a été sacrément impressionnante:
    https://www.nextinpact.com/article/47283/panne-numeros-durgence-15-17-18-112-que-sest-il-passe

    À part un mercato :
    https://www.challenges.fr/high-tech/michel-van-den-berghe-pourquoi-je-quitte-orange-cyberdefense_762377

    Et le déménagement des locaux de la DGSE qui fait un peu le tamis pour les autres administrations…
    https://www.forcesoperations.com/2022-une-annee-charniere-pour-le-futur-siege-de-la-dgse/

    L’importance du numérique et du stockage des données, à l’heure où tout doit être connecté, change le domaine de « la mère de toutes les batailles », notamment pour le camp des démocraties :
    https://www.lefigaro.fr/medias/gabriel-ferriol-nomme-chef-de-viginum-l-arme-de-l-etat-contre-les-ingerences-numeriques-etrangeres-20211006

    Comme ils sont taquins aux USA, une loi a été votée autorisant leurs services de renseignement à pouvoir regarder tout ce qui transite par un serveur informatique américain.
    En attendant que ce soit les GAFAM qui s’en chargent…

  21. adnstep dit :

    A l’échelle de la DGA, c’est un petit projet. Et la DGA a toujours eu des pb pour gérer les petits projets SI, dans un domaine en évolution constante. Pas facile de passer des marchés sur la base d’un CCTP et d’une stb quand les besoins changent tous les deux ans… Néanmoins, elle a constaté ses faiblesses, celles des autres intervenants du ministère dans le domaine des SI et tente de s’améliorer. Ça a motivé la création de la DGNum.

    Le gros risque de ce genre de projets n’est pas tant technique que temporel. Espérons que cette fois-ci on fera de vrais cycles courts avec un noyau qui fonctionnera et rendra quelques services, qui inciteront les autres à venir s’agréger au fur et à mesure.

  22. Plusdepognon dit :

    Enfin, ce n’est pas comme si les géantes multinationales du numérique ne s’était pas de force invitées à la table…
    https://www.challenges.fr/high-tech/comment-l-etat-francais-finance-le-cloud-americain_788511

    Même aux USA, le gouvernement fédéral a donné les clefs :
    https://www.latribune.fr/technos-medias/internet/cyberattaques-les-etats-unis-font-appel-aux-gafams-pour-endiguer-une-menace-economique-qui-pourrait-entrainer-une-guerre-890288.html