logo

Dissuasion nucléaire : de la bombe A à la bombe IA

Sous-marins atomiques autonomes, algorithmes détectant une menace atomique ou robots capables de guider des missiles ultrarapides : l’intelligence artificielle peut modifier le rapport de force atomique, révèle un rapport publié en mai.

Le 3 juin 1980 à 2 h 26 du matin, Zbigniew Brzezinski, conseiller à la Sécurité nationale du président américain Jimmy Carter reçoit un appel alarmiste : 220 missiles nucléaires soviétiques se dirigent vers les États-Unis. Quelques minutes plus tard, un nouveau coup de fil du centre de commandement militaire l’informe qu’en réalité ce sont 2 200 bombes qui menacent le sol américain. Finalement, alors que le conseiller s’apprêtait à prévenir le chef du "monde libre" de l’imminence d’un bombardement nucléaire russe, les responsables militaires réalisent que le système d’alerte automatisé s’est emmêlé les pinceaux. La guerre froide a failli devenir très chaude à cause… d’un composant informatique bon marché qui n’a pas fonctionné correctement.

À l’époque, le terme "intelligence artificielle" (IA) n’était pas encore à la mode. Mais Américains et Soviétiques commençaient déjà à introduire des algorithmes dans les salles de contrôle pour rendre leur dissuasion atomique plus efficace. Plusieurs incidents, comme celui du 3 juin 1980, ont cependant montré les limites de cette automatisation.

Avancées dans le domaine de l’IA

Près de quarante ans ont passé et le sujet de l’IA semble avoir disparu du débat sur la menace nucléaire, alors même que les algorithmes sont de plus en plus omniprésents à tous les étages de la société. Un rapport du prestigieux Stockholm International Peace Research Institute (SIPRI), publié lundi 6 mai, souligne pourtant que la question reste d’actualité.

D’un côté, la menace d’une course à l'armement nucléaire est loin d’avoir disparu. Les États-Unis de Donald Trump ont promis de moderniser leur arsenal, la Corée du Nord n’a pas l’air de vouloir abandonner son programme nucléaire, et des tensions entre l’Inde et le Pakistan – deux puissances nucléaires – font régulièrement la "une" des médias. De l’autre, les avancées technologiques dans le domaine de l’IA démontrent qu’il y a "un énorme potentiel dans le nucléaire, comme dans le domaine des armes conventionnelles et cyber. Le ‘machine learning’ [l’IA qui s’améliore en se nourrissant de données, NDLR] est excellent pour l'analyse des données", explique Vincent Boulanin, chercheur au SIPRI, qui a coordonné l’étude, contacté par France 24. Une qualité qui peut s’avérer essentielle, par exemple, pour le renseignement ou la détection d'attaques informatiques.

La France, les États-Unis, la Russie ou encore la Chine ont-ils déjà adopté l'algorithme dernier cri dans leur dispositif nucléaire ? "En vérité, on sait assez peu de choses sur l’adoption de l’IA dans les système nucléaire à l’heure actuelle", reconnaît Vincent Boulanin. La Russie est la seule puissance à l’avoir évoquée récemment. Le président russe, Vladimir Poutine, a annoncé en mars 2018 la construction d’un sous-marin nucléaire entièrement automatisé, baptisé Poséidon. Moscou a aussi officiellement ressuscité et mis à jour, en 2011, un dispositif datant de la guerre froide : le système Perimetr. Il s’agit d’une intelligence artificielle capable – si certaines conditions sont réunies – d’initier une riposte nucléaire après avoir détecté le lancement d’une bombe atomique par un autre État. Mais en l’absence d’éléments concrets, ces annonces ont laissé les experts dubitatifs.

Gagner des précieuses minutes en cas de crise

Ce scepticisme tient, en partie, au fait que "dans le domaine nucléaire, l’adoption de nouvelles technologies est traditionnellement lente car chaque nouveauté implique la possibilité de nouvelles vulnérabilités", résume Vincent Boulanin. Les responsables des programmes nucléaires préfèrent travailler sur des ordinateurs largement dépassés plutôt que d’utiliser des technologies ultramodernes qui risquent d’être piratées.

Mais pour lui, ce n’est qu’une question de temps. Les promesses de l’IA sont trop alléchantes pour que les puissances nucléaires l’ignorent lorsque la technologie aura gagné en maturité. Son principal avantage est qu’un algorithme est plus rapide que l’homme pour traiter l’information. "C’est une variable fondamentale en cas de crise nucléaire. Elle peut donner aux responsables politiques plus de temps pour prendre une décision", explique Vincent Boulanin. Avoir quelques secondes ou minutes en plus pour déclencher une riposte en cas d’attaque peut sauver la vie de millions d’individus.

L’intelligence artificielle peut aussi rendre les systèmes de guidage "plus précis et flexibles" pour les auteurs du rapport. "Cela peut, notamment, être important pour les systèmes hyper véloces qu’un humain ne peut pas manœuvrer", souligne l’expert français du Sipri. Plusieurs pays travaillent à des prototypes d’avions et missiles hypersoniques, capables de voler à plus de cinq fois la vitesse du son. À ce rythme, aucun humain ne peut intervenir sur la trajectoire du missile, alors qu’une IA peut encore corriger le tir si besoin.

Face obscure de l’IA dans le nucléaire

Mais il y a aussi la face obscure de l’intelligence artificielle. L’automatisation implique que l’homme délègue à la machine des tâches, ce qui, dans le domaine nucléaire, peut avoir de lourdes implications "morales et éthiques", souligne Frank Sauer, spécialiste des questions de sécurité internationale à l'Université de Munich, qui a collaboré au rapport du Sipri. Il met ainsi en garde contre la tentation de déployer des sous-marins ou drones capable de lancer des charges atomiques car "le respect de la dignité humaine implique notamment qu’une machine ne prenne pas de décision qui peut mettre en danger la vie", écrit-il dans le rapport. Il faudrait ainsi, selon Vincent Boulanin, que "les États fassent une déclaration claire" à ce sujet afin d’éloigner le spectre d’une main robotique habilitée à appuyer sur le bouton rouge.

Les algorithmes sont aussi des conceptions humaines qui peuvent reproduire les préjugés de leurs créateurs. Aux États-Unis, l’utilisation de l’IA par la police pour tenter de prévenir le risque de récidives a montré ses limites et plusieurs études ont souligné que la machine s’était montrée raciste. Dans le domaine nucléaire, il est, de ce fait, "impossible d’exclure un risque d’escalade ou du moins d’instabilité à cause d’un algorithme qui aurait mal interprété une situation [car les modèles étaient mal conçus]", souligne dans le rapport Jean-Marc Rickli, chercheur au Geneva Center for Security Policy (Centre de recherches sur les politiques de sécurité de Genève).

L’intelligence artificielle peut aussi menacer le fragile équilibre entre les puissances nucléaires. "Un État qui n'est pas sûr de sa dissuasion nucléaire sera davantage tenté d’automatiser sa force de frappe, ce qui augmente aussi le risque de son utilisation accidentelle", craint Michael Horowitz, politologue et spécialiste des problématiques de défense à l’Université de Pennsylvanie qui a participé à l’élaboration du rapport du Sipri.  Ainsi, les États-Unis, sûrs de leur domination nucléaire, se montreront plus prudents dans l’adoption de l’IA qu’une puissance nucléaire mineure comme le Pakistan.

L’intelligence artificielle est donc une arme à double tranchant dans le domaine nucléaire. Elle peut contribuer à rendre le monde plus sûr. Mais il "faut une adoption responsable, cela implique de prendre le temps d’identifier les risques associés à l’usage de l’IA, ainsi que de chercher des solutions pour les contrer à l'avance", conclut Vincent Boulanin. Car les financiers ont utilisé les mêmes arguments - vitesse, fiabilité - pour pousser au plus vite à l’introduction des algorithmes dans les salles de marchés. Conséquence : le trading à haute fréquence a été à l’origine de plusieurs incidents très coûteux pour les investisseurs. Et, dans le domaine nucléaire, ce n’est pas qu'une question d'argent.