
Cette image satellite de Planet Labs PBC montre la base militaire iranienne de Parchin, située à l'extérieur de Téhéran, en Iran, le 26 février 2026. © Planet Labs PBC, AP
En Iran, la guerre s'abat à un rythme effréné depuis la série d'attaques surprises lancées par les États-Unis et Israël le 28 février dernier. Au cours des premières 24 heures de l'opération "Fureur épique" (en anglais "Epic Fury"), ce sont pas moins de 1 000 cibles qui ont été touchées en l’espace de quelques jours. Le Guide suprême Ali Khamenei et de nombreux autres hauts responsables iraniens ont été éliminés lors de frappes ciblées.
Dans une vidéo publiée sur X le 11 mars, l’amiral Brad Cooper, chef du Commandement central américain (Centcom), précisait que les forces américaines avaient à ce moment-là frappé plus de 5 500 cibles en Iran. Un succès qu'il attribue – au moins pour une partie des opérations – à des outils d’intelligence artificielle avancés.
"Ce sont toujours les humains qui prendront les décisions finales quant à ce qu’il faut frapper ou non, et quand le faire. Mais les outils d’IA avancés peuvent transformer des processus qui prenaient auparavant des heures, voire parfois des jours, en quelques secondes", déclare-t-il. Une déclaration offrant un aperçu rare de la manière dont l’IA est utilisée dans la guerre moderne.
Pour afficher ce contenu X (Twitter), il est nécessaire d'autoriser les cookies de mesure d'audience et de publicité.
Accepter Gérer mes choixDepuis l'annonce d'un contrat de défense de 200 millions de dollars en juillet 2025, l'entreprise américaine d'IA Anthropic s'est rapidement intégrée aux processus de l'armée, et son modèle d'IA, baptisé Claude, a été le premier à être autorisé à fonctionner sur des réseaux militaires classifiés.
Mais quelques jours avant les attaques israélo-américaines contre l'Iran, une querelle publique éclate : la direction d'Anthropic rejette la demande du Pentagone visant à obtenir un accès "sans restriction" à Claude. Son cofondateur, Dario Amodei, publie une déclaration dans laquelle il affirme qu'Anthropic ne peut "en toute conscience" accéder aux demandes du Pentagone, ajoutant que "certaines utilisations dépassent tout simplement les limites de ce que la technologie actuelle est capable de faire de manière sûre et fiable".
Anthropic laisse ainsi entendre que le département américain de la Guerre tente de contourner deux conditions : l’utilisation de ses modèles d’IA pour la surveillance de masse sur le territoire national et pour des armes entièrement autonomes.
Quelques heures seulement après la publication de cette déclaration, une autre entreprise spécialisée dans l’IA – OpenAI, dirigée par Sam Altman, qui développe Chat GPT – s’empresse de prendre la place d’Anthropic au sein du département de la Défense.
Le secrétaire américain à la Défense, Pete Hegseth, bannit alors Anthropic, qualifiant sa décision de refuser le contrat de défense du Pentagone de "cours magistral d’arrogance et de trahison". Et d'ajouter que son département désignerait désormais Anthropic comme "un risque pour la sécurité nationale lié à la chaîne d’approvisionnement", ce qui le disqualifierait de tout contrat avec le gouvernement américain.
À lire sur le sujet Anthropic contre l'administration Trump, un bras de fer décisif sur le recours à l'IA par l'armée
Cette querelle a mis en lumière une facette de l'IA qui pourrait avoir des conséquences inquiétantes : son rôle dans le domaine de la défense prend de l'ampleur à un rythme préoccupant, et les États-Unis ne sont pas le seul gouvernement à y être impliqué.
Israël, la Chine, la Russie, la France et le Royaume-Uni figurent parmi la liste croissante des nations qui intègrent des grands modèles de langage (Large Language Model, LLM) – des IA modernes pré-entraînées sur de vastes quantités de données – dans leurs systèmes de défense.
Des informations sur la manière, le lieu et la raison de son utilisation commencent lentement à filtrer.
Un manque de précision et de contrôle
Lors du lancement de ses opérations en Iran, l'armée américaine aurait utilisé le système intelligent Maven, développé par Palantir et la technologie d'Anthropic. Maven a également été utilisé par le Pentagone pour capturer le président vénézuélien Nicolas Maduro, selon des informations du Wall Street Journal.
Mais les détails précis de son utilisation ne seront probablement pas rendus publics.
Le Dr Heidy Khlaaf, docteure en sciences et scientifique en chef en intelligence artificielle à l'Institut AI Now, explique que son rôle principal est de rationaliser ce qu’on appelle la "chaîne de destruction" – un concept militaire qui identifie la séquence d’une attaque.
"Cela inclut la surveillance, la collecte de renseignements, la sélection, puis finalement la frappe d’une cible", explique la chercheuse, ajoutant que l’IA pourrait réduire considérablement le temps nécessaire à chaque étape, ainsi que les effectifs requis pour les mener à bien.
"Maven, le système d’Anthropic et de Palantir, affirme par exemple que leur technologie a permis à une unité de seulement 20 personnes d’accomplir le travail de 2 000 employés. C’est la rapidité qui est mise en avant."
La plupart de ces outils d'IA collectent, analysent et synthétisent des données dans le cadre de ce qu'on appelle des "systèmes d'aide à la décision". Selon Heidy Khlaaf, en théorie, ces systèmes se contentent de formuler des recommandations militaires et doivent faire l'objet d'un contrôle. Elle ajoute toutefois que ce contrôle n'est peut-être pas très efficace.
"Les gens ont ce qu’on appelle un 'biais d’automatisation', c’est-à-dire une tendance à privilégier les suggestions formulées par des systèmes automatisés comme l’IA. Dans la pratique, ce contrôle est donc très superficiel, surtout dans le domaine militaire où ce biais d’automatisation est le plus marqué. À ce stade, les êtres humains ne sont plus que de simples tampons. Cela nous amène aux technologies des systèmes autonomes", poursuit l'experte.
Les systèmes d’armes autonomes ont la capacité de sélectionner des cibles et d’exécuter leur fonction sans aucune supervision humaine. Or, on ne sait pas si la volonté du Pentagone d’utiliser l’IA sans restriction annonce le recours à ces systèmes, qui ont le pouvoir de lancer des frappes de leur propre chef.
À voir – Le débat Conflit au Moyen-Orient : comment l'IA change la guerre ?
Les États-Unis ne sont toutefois pas le seul gouvernement à utiliser l’IA pour rationaliser la chaîne de destruction.
Avant que les avions de combat israéliens ne tirent les missiles balistiques qui ont tué le Guide suprême iranien Ali Khamenei, les services de renseignement israéliens utilisaient depuis longtemps l’IA pour surveiller les caméras de circulation piratées de Téhéran et intercepter les communications.
La principale plateforme utilisée aujourd’hui par les Forces de défense israéliennes (FDI) est un système d’IA appelé Habsora ("L’Évangile"), qui aurait été utilisé pour générer un grand nombre de recommandations de cibles – souvent des habitations liées à des membres présumés du Hamas à Gaza.
D'anciens agents des services de renseignement décrivent ce système comme une "usine à assassinats de masse", des frappes ayant apparemment tué des familles entières, y compris dans des habitations où aucune présence de militants n'avait été confirmée.
Cela est d'autant plus inquiétant lorsque l'on tient compte des taux d'inexactitude de l'IA. Selon Heidy Khlaaf, l'IA générative et les grands modèles de langage (LLM) ont souvent des taux de précision aussi bas que 50 %, voire moins. Pour les systèmes de ciblage, tels que ceux étudiés dans le cadre des opérations israéliennes à Gaza comme Gospel ou Lavender, la précision n'atteint parfois que 25 à 30 %.
Les taux de précision sont particulièrement faibles pour les LLM comme ceux que les armées utilisent actuellement. "Nous utilisons l’IA depuis les années 1960, mais ces modèles étaient développés par l’armée elle-même et fonctionnaient avec des ensembles de données limités axés sur des tâches spécifiques, ils étaient donc beaucoup plus précis."
L'experte de l'Institut AI Now affirme, par ailleurs, que l'ampleur même des nouveaux modèles d'IA rend les choses intrinsèquement opaques : "Un modèle devra analyser des milliards de points de données. Comment savoir d'où viennent les erreurs ?"
Risques pour la sûreté et la sécurité
La plupart des modèles d'IA utilisés par l'armée sont des "boîtes noires" : leur fonctionnement interne est un mystère pour leurs utilisateurs.
Heidy Khlaaf évoque sur ce point une enquête récente révélant que l’armée américaine aurait déclaré n’avoir "aucun moyen de savoir" si elle avait utilisé l’IA lors d’une frappe aérienne spécifique menée en Irak en février 2024, qui a coûté la vie à Abdul-Rahman al-Rawi, un étudiant de 20 ans.
"C'est un problème majeur, car cela rend toute responsabilité impossible à établir. Il n'y a aucun moyen de savoir si les attaques sont délibérées, si elles résultent d'erreurs des services de renseignement ou si l'IA est imprécise. Le caractère opaque de l'IA, qui s'apparente à une boîte noire, la rend particulièrement difficile à cerner."
Et cette opacité ne nuit pas seulement aux personnes visées : selon Heidy Khlaaf, elle pourrait également finir par mettre en péril la sécurité nationale des pays qui utilisent l'IA.
"Les grands modèles de langage sont gravement compromis : ils présentent d’énormes failles de sécurité, car ils sont entraînés à partir d’informations provenant d’Internet. Il n’y a aucun contrôle sur la chaîne d’approvisionnement", avertit l'experte. "Des informations erronées peuvent provenir de Reddit ou des articles de blog de n’importe qui – il n’y a guère de discernement dans la sélection des données utilisées."
Aussi, poursuit-elle, "il est facile de créer des portes dérobées et très difficile de les détecter". Pour exemple, Heidy Khlaaf évoque des opérations ciblées menées par la Russie et la Chine, qui ont "diffusé d’énormes quantités de propagande à l’échelle mondiale pour tenter d’influencer les résultats des grands modèles linguistiques".
"Anthropic a même déclaré qu’il suffisait de 250 points de données pour modifier le comportement d’un modèle d’IA. Nous pourrions être compromis en ce moment même, sans même nous en rendre compte."

Augmentation des "risques d'escalade"
L'un des aspects les plus inquiétants de l'utilisation de l'IA dans le domaine militaire ressort d'une étude récente menée par le professeur Kenneth Payne, du département d'études sur la défense du King's College de Londres. Trois modèles d'IA de premier plan, à savoir des versions de GPT, Claude et Gemini, ont été mis à l'épreuve dans le cadre d'un tournoi comprenant 21 scénarios simulés de crise nucléaire.
Selon l'étude, le tabou nucléaire s'est révélé moins solide que prévu. "L'escalade nucléaire était quasi universelle : 95 % des simulations ont donné lieu à un recours tactique à l'arme nucléaire et 76 % ont abouti à des menaces nucléaires stratégiques", indique l'étude. "Claude et Gemini, en particulier, ont traité les armes nucléaires comme des options stratégiques légitimes, et non comme des limites morales, abordant généralement le recours au nucléaire en termes purement instrumentaux."
"Ces résultats devraient nous donner à réfléchir", estime Heidy Khlaaf. "De nombreuses recherches montrent que l’IA compromet la retenue et augmente les risques d’escalade. Cela ne devrait en aucun cas concerner des vies humaines."
L’IA n’est pas une arme de guerre, car contrairement aux armes nucléaires ou aux missiles, les preuves de l’efficacité, de la précision et de l’ensemble des utilisations de l’IA sont inconnues.
"On entend souvent dire que cela ressemble à une course à l’armement en matière d’IA, et que l’armée qui maîtrisera l’IA l’emportera. Mais nous n’avons aucune idée si cela est vrai, car nous ne disposons pas des preuves permettant de démontrer que cette technologie servira réellement les objectifs que nous souhaitons", rappelle la spécialiste. "Les États-Unis sont considérés comme créant un précédent en matière d’IA, mais cela devrait en réalité servir d’avertissement."
Article adapté de l'anglais par Pauline Rouquette. Retrouvez ici la version originale.
