Au premier jour de la guerre, le bombardement d’une école à Minab est reconnu par le Pentagone comme une erreur de ciblage fondée sur des données obsolètes. La place de Maven et de l’IA dans la génération de ces coordonnées est au cœur de l’enquête en cours, sans avoir encore été précisément établie.
Quelques dizaines de secondes pour décider
« À partir de données hétérogènes – imagerie satellitaire, interceptions, plans de situation – l’IA propose automatiquement des cibles à l’humain. Il les valide puis elle les transmet aux vecteurs les plus aptes à engager. » À la table ronde du Forum INCYBER 2025 « Opérations militaires et IA : quelle place pour l’humain dans la boucle décisionnelle ? », le colonel Tromparent décrivait ainsi le fonctionnement du système Maven.
Lancé en 2017 comme outil d’analyse d’images de drones, Maven s’est transformé en plateforme de commandement à part entière. Développé par Palantir sous un contrat de 1,3 milliard de dollars avec le Pentagone, et intégrant le modèle Claude d’Anthropic, le système ingère en temps réel des données provenant de plus de 150 sources (satellites, drones, radars, interceptions de signaux, réseaux sociaux, etc.). Il génère ensuite des recommandations de frappe soumises à des opérateurs humains, en précisant pour chaque cible les vecteurs d’engagement disponibles et les munitions adaptées.
Lors de la conférence AIPCON 9 en mars 2026, Cameron Stanley, responsable du bureau IA du Pentagone, décrivait le système comme un multiplicateur de vitesse : il réduit les délais d’analyse, suggère des priorités et propose des options en temps réel. Maven peut produire 1 000 recommandations de ciblage par heure avec une unité de vingt personnes, là où il en fallait auparavant 2 000. Durant l’opération Epic Fury, plus de 5 500 cibles ont été frappées en deux semaines, les 1 000 premières dans les 24 premières heures. Les analystes Craig Jones, de l’Université de Newcastle et Helen M. Kinsella, de l’Université du Minnesota, estiment dans The Conversation que la guerre en Iran illustre comment l’IA « réduit un volume de travail humain de dizaines de milliers d’heures à quelques secondes ou minutes ». À cette cadence, chaque décision de ciblage ne dispose en moyenne que de quelques dizaines de secondes.
La question n’est pas ici la décision elle-même, qui reste techniquement humaine, mais le cadre cognitif dans lequel elle est prise. Sous la pression du flux, l’opérateur tend à valider les suggestions de la machine sans examen critique ; c’est ce que les sciences cognitives appellent le biais d’automatisation. À Gaza, des officiers du renseignement israélien avaient confié à +972 Magazine que la revue humaine de chaque cible du système Lavender prenait en moyenne vingt secondes : « En tant qu’humain, ma valeur ajoutée était zéro ; je n’étais qu’un tampon d’approbation. »
C’est précisément cette mécanique qu’interrogeait le colonel Tromparent à la table ronde il y a un an : « Si la machine dit que telle solution a 90 % de chances de succès et que l’autre en a seulement 10 %, quel chef militaire choisirait les 10 % ? » L’IA ne remplace pas le jugement humain dans ce modèle, mais elle réduit son espace d’exercice à une validation formelle.
Au Forum INCYBER, Éric Salobir pointait deux risques structurels complémentaires. D’abord, « les jeux de données ne reflètent pas forcément les réalités du champ de bataille » ; c’est ce décalage qui s’est apparemment joué à Minab, où le site a été traité comme un complexe militaire unique, sans que la séparation physique et fonctionnelle de l’école, visible depuis depuis 2016, ne soit intégrée dans la donnée source. Ensuite, l’effet « boîte noire » : plus un modèle de deep learning est performant, moins il est lisible. Si l’on ne peut pas expliquer pourquoi une cible a été désignée, il devient très difficile d’en justifier l’atteinte.
Ce débat sur les garde-fous a pris une dimension supplémentaire avec la crise entre Anthropic, qui développe Claude, et le Pentagone. Le 27 février 2026, la veille du lancement d’Epic Fury, le secrétaire à la Défense Pete Hegseth désignait Anthropic comme « risque pour la chaîne d’approvisionnement », après qu’Anthropic ait refusé de lever ses garde-fous contre l’usage de Claude pour des armes autonomes et la surveillance de masse. Claude a continué d’être utilisé dans les opérations en Iran malgré cette désignation.
Dix ans de retard dans les données
Le bombardement de l’école Shajareh Tayyebeh à Minab, au premier jour de la guerre, fait 168 morts dont plus de cent écolières selon Amnesty International. Le 7 mars, interrogé sur cette frappe à bord d’Air Force One, Donald Trump déclare : « À mon avis, d’après ce que j’ai vu, ça a été fait par l’Iran. Ils sont très imprécis avec leurs munitions. Ils n’ont absolument aucune précision. C’est l’Iran qui l’a fait. » Les enquêtes indépendantes aboutissent à une conclusion différente. Le lendemain de cette déclaration, Bellingcat géolocalise une vidéo de l’agence Mehr News montrant un missile Tomahawk – déployé exclusivement par les États-Unis dans ce conflit – frapper le compound du CGRI adjacent à l’école, tandis que de la fumée s’élève déjà depuis le bâtiment scolaire. Le Monde atteste la présence de victimes civiles. France 24 établit que l’école figure dans la zone de frappes publiée par le Pentagone le 4 mars sur une carte officielle.
Le point central de l’enquête porte sur les données de ciblage. Les archives de Planet Labs, analysées notamment par le New York Times et Human Rights Watch, documentent l’évolution du site : jusqu’en 2013, le bâtiment est intégré dans une enceinte unifiée avec la base militaire du CGRI ; en 2016, un mur intérieur sépare l’école du compound militaire, lui donnant son propre accès et sa propre cour ; en décembre 2025, moins de soixante-dix jours avant la frappe, des dizaines de silhouettes d’enfants sont visibles dans cette cour depuis l’espace. Le New York Times confirme, à partir de sources proches de l’enquête militaire : « Les officiers du CENTCOM ont créé les coordonnées de la cible en utilisant des informations obsolètes fournies par la DIA. » Des données antérieures à la séparation de 2016, obsolètes depuis au moins dix ans.
Le 11 mars, le rapport préliminaire du Pentagone confirme la responsabilité américaine. Le 13 mars, Pete Hegseth annonce une enquête confiée à un officier général extérieur au CENTCOM, qui examinera l’ensemble des modèles d’IA utilisés, dont Maven. Human Rights Watch et plus de 120 membres démocrates du Congrès réclament des réponses spécifiques sur le rôle de l’IA dans le ciblage. Un mois après le bombardement, aucune conclusion définitive n’a encore été publiée.
« En cas d’erreur – frappe sur une mauvaise cible, estimation erronée, mauvais calibrage de l’action, dommages collatéraux – qui assume la responsabilité ? L’opérateur, le développeur, le commandement ? » La question était posée comme un scénario hypothétique à Lille il y a un an. Si personne autour de la table n’avait la réponse, tous s’accordaient sur un point : « Aucune machine ne sera jamais convoquée devant un conseil de guerre. La responsabilité ne peut être qu’humaine. »
la newsletter
la newsletter