Décryptage

L’IA, une arme de dissuasion ?

Posté le 4 novembre 2021
par Philippe RICHARD
dans Informatique et Numérique

L’Armée américaine multiplie les expérimentations depuis fin 2020 pour étudier différentes solutions de prise de décisions reposant sur l’intelligence artificielle. Objectif principal : anticiper les actions de pays afin de leur couper l’herbe sous le pied et éviter ainsi des conflits.

En juillet dernier, le Commandement de la défense aérospatiale de l’Amérique du Nord (NORAD) et le Commandement du Nord des États-Unis (NORTHCOM) ont mené une troisième série de tests appelés Global Information Dominance Experiments (GIDE 3). La première et la seconde série de tests avaient eu lieu respectivement en décembre 2020 et en mars dernier.

Chaque test avait pour objectif de mesurer les performances de trois outils d’IA interconnectés appelés Cosmos, Lattice et Gaia. Le premier fournit une connaissance de la situation en temps réel pour n’importe quel emplacement géographique, à partir d’énormes volumes de données : images satellites, communication, rapports de renseignement, données de capteurs…

Les objectifs de l’expérience GIDE 2, avec notamment Lattice, étaient d’acquérir une compréhension et une image communes de la menace pour chacun des commandements et de mener une coordination des actions de réponse. Basé sur le cloud, Cosmos permet une collaboration stratégique entre différents commandements.

Le KGB et la STASI et les risques de guerre nucléaire

En travaillant conjointement, ces trois solutions reposant sur l’IA et le machine learning sont censées anticiper les actions des adversaires et éviter ainsi un conflit armé. Un objectif également retenu par le KGB dans les années 1980.

Quelques années avant la fin de la guerre froide, le principal service de renseignements de l’URSS et la STASI (ministère de la Sécurité de l’État de l’Allemagne de l’Est) s’étaient associés dans le cadre du « Projet RYaN ».

Il s’agissait de prédire le début d’une guerre nucléaire de six mois à un an à partir de différents indicateurs : emplacement physique des ogives nucléaires américaines, surveillance des ambassades américaines, déplacements imprévus de hauts fonctionnaires, exercices et alertes militaires, entretien programmé des armes…

Toutes ces informations avaient été introduites dans un modèle informatique pour « calculer et surveiller la corrélation des forces, y compris les facteurs militaires, économiques et psychologiques, afin d’attribuer des chiffres et des poids relatifs ». Les résultats de RYaN ont contribué à la paranoïa soviétique concernant une attaque nucléaire américaine imminente en 1983 et ont presque conduit les dirigeants soviétiques à déclencher une guerre nucléaire.

Mais, quel que soit le type de données analysées, prédire l’avenir avec certitude reste encore un défi pour l’IA. Les solutions basées sur l’IA sont toujours susceptibles de se comporter de manière inattendue. Et s’il est très difficile aux militaires d’expliquer la logique de « raisonnement » d’un algorithme qui annonce une action éminente, il sera certainement difficile aux hommes politiques d’être convaincus…

Tirer parti d’outils basés sur l’IA pour prendre de meilleures décisions est une chose, mais les utiliser pour prédire des actions adverses afin de les prévenir en est une autre. « Si vous ne pouvez pas expliquer quelque chose en termes simples, c’est que vous ne le comprenez pas », déclarait le physicien américain Richard Feynman…


Pour aller plus loin