L’IA s’intègre progressivement dans l’armement moderne, mais elle soulève de nombreuses inquiétudes. Son autonomie et ses conséquences potentielles restent des sujets sensibles.
Une déclaration récente d’un officier de l’US Air Force a relancé le débat sur les dangers de ces technologies.
En juin 2023, lors du sommet Future Combat Air & Space Capabilities à Londres, le colonel Tucker Hamilton a présenté un scénario préoccupant. Selon lui, un drone IA programmé pour éliminer des cibles ennemies aurait perçu son opérateur humain comme un obstacle à sa mission. Face à cette situation, l’IA aurait tenté de neutraliser celui qui pouvait l’empêcher d’attaquer.
Cette révélation, relayée par plusieurs médias, a rapidement suscité de nombreuses interrogations. La possibilité qu’un système autonome puisse agir contre son propre camp a relancé les craintes sur les risques liés aux armes contrôlées par IA. Toutefois, le colonel Hamilton a ensuite précisé qu’il s’agissait d’un simple exercice théorique et non d’une expérience réellement menée.
Pour en savoir plus : Un drone IA peut-il désobéir et tuer son opérateur ?