Des missiles guidés aux systèmes d’armes létales autonomes
On utilise depuis les années 1980 des missiles guidés comme l’Exocet qui présentent certaines caractéristiques des robots : en mode automatique, ils utilisent des informations contextuelles pour ajuster leur trajectoire. Mais la qualification de robots est réservée à des mécanismes disposant d’une plus grande autonomie : traitement d’informations plus variées, autonomie allongée de quelques minutes à plusieurs heures, mobilité complète, palette de décisions élargie (tirer ou ne pas tirer par exemple).
La plus grande autonomie des « systèmes d’armes létales autonomes » (SALA) a été rendue possible par les progrès de l’informatique embarquée (miniaturisation des processeurs, précision croissante des capteurs) et de la mobilité. Il existe deux types de systèmes.
#1 Drones
La plupart des drones marins et aériens sont dotés d’un mode automatique. D’abord utilisés pour des missions d’observation, de reconnaissance, puis de guidage laser, ils ont été armés au début des années 2000, en Afghanistan puis en Irak. Le Predator (progressivement remplacé par le Reaper) reste un précurseur isolé, mais depuis les années 2010, l’usage des drones de combat est de plus en plus fréquent.
Les Turcs en disposent depuis 2012 et ils ont équipé les Azéris lors de la guerre contre l’Arménie en 2020 : ces modèles, moins sophistiqués que les drones américains, ont eu un impact décisif. Russes, Indiens, Israéliens, Sud-Africains, Pakistanais fabriquent leurs propres drones. Les Chinois en fabriquent (Wing Loong 1 et 2, CaiHong 1 à 6) et, à la différence des États-Unis qui n’en fournissent qu’à leurs proches alliés, en vendent à des pays tiers.
Les drones ont montré leur efficacité sur des théâtres spécifiques, mais ils ne sont pas compétitifs dans un conflit de haute intensité.
Différents projets européens ont été développés, certains au stade du prototype (Barracuda d’EADS, Taranis de BAe), d’autres plus avancés (Neuron de Dassault), ou adoptés par les armées (Patroller de Safran). Le projet de drone de combat européen, longtemps repoussé, a été lancé récemment et sera opérationnel vers 2028.
Les drones ont montré leur efficacité sur des théâtres spécifiques (combat contre des terroristes, conflits régionaux), mais ils ne sont pas compétitifs dans un conflit de haute intensité. Les enjeux de développement sont la furtivité, l’endurance, la qualité des capteurs et l’usage accru de l’IA. Alors que les drones MALE (Medium Altitude Long Endurance) font plusieurs mètres de long, des modèles ultralégers font leur apparition. Une équipe de chercheurs chinois a dévoilé en 2021 un prototype de drone amphibie ne pesant que 1,5 kg. Enfin, les états-majors s’inquiètent aujourd’hui d’une nouvelle menace : de petits drones civils équipés d’armes rudimentaires (explosifs) et fonctionnant en essaim.
#2 Robots terrestres
Utilisés principalement sur des missions défensives (surveillance, protection des sites), ou de transport, les robots terrestres sont moins répandus. La mobilité sur des terrains accidentés pose des problèmes techniques demandant, dans le cas des robots « à pattes » comme ceux de Boston Dynamics, des prouesses techniques, y compris pour les robots « mules » utilisés par l’armée américaine.
Moins spectaculaires mais en plein essor, les véhicules terrestres lourds sans pilote (unmanned ground vehicles), montés sur chenilles sont utilisés pour des tâches de transport mais peuvent aussi servir de support à des systèmes de drones. Proches de modèles utilisés dans le civil, moins onéreux que les drones, ils sont développés par des industriels différents, comme l’estonien Milrem Robotics dont le THeMIS a été déployé en 2019 dans la mission Barkhane au Mali. L’armée russe est l’une des seules à avoir armé ces véhicules, avec l’Uran‑9 qui aurait été testé en Syrie.
Débats
De nombreux débats ont entouré l’émergence des drones de combat. Le terme « Killer Robot » a été poussé par des militants opposés à son usage. Le public craint de voir ces technologies utilisées par un acteur malfaisant pour dominer un champ de bataille ou une population. Une autre crainte touche au rôle de l’IA. En juillet 2015, une lettre ouverte sur les armes autonomes1 signée par des chercheurs en robotique et en IA, mais aussi par l’astrophysicien Stephen Hawkins et les entrepreneurs Elon Musk et Steve Wozniak, s’en inquiétait : « nous pourrions, un jour, perdre le contrôle des systèmes d’IA par l’ascension d’une super intelligence qui n’agirait pas en conformité avec les désirs de l’humanité ».
Les futurs débats entre États risquent de ne plus concerner l’existence de ces systèmes, mais plutôt les règles d’engagement.
Plus concrètement, il existe le risque d’une perte de contrôle : en 2020, d’après un rapport de l’ONU, un drone en Libye aurait tué sa cible sans « ordre direct2 ». Cela soulève des questions techniques : comment éviter de perdre le contrôle ou de voir faire pirater les systèmes, et des questions de fond : les robots militaires autonomes doivent-ils être interdits ? Si oui, comment définir précisément le mot « autonome » ? Dans le cas contraire, comment répartir la responsabilité en cas de mauvaise utilisation ou de dysfonctionnement ? On peut soutenir, pourtant, que la technologie pourrait potentiellement sauver des vies en évitant les pertes civiles, ou en mettant fin aux guerres plus rapidement.
Christof Heyns, rapporteur spécial de l’ONU jusqu’en 2016, a plaidé vigoureusement pour un moratoire sur le développement de ces systèmes. Sa crainte était de voir les États se lancer dans une course aux armements, avec un « coût d’entrée » beaucoup plus faible que pour l’arme nucléaire : des États voyous ou des organisations criminelles pourraient s’équiper. Mais cette course a commencé. Les futurs débats (entre États) risquent de ne plus concerner l’existence de ces systèmes, mais plutôt les règles d’engagement.