L’essor des armes létales autonomes au début des années 2000 a provoqué des réactions politiques : depuis 2013, des États et des organisations non gouvernementales ont engagé des discussions dans le cadre de la Convention sur les armes conventionnelles, une instance des Nations-unies située à Genève. Une campagne a par ailleurs été lancée par des organisations non gouvernementales et notamment Human Watch International, Stop Killer Robots. Mais en 2021 force est de constater que les efforts n’ont pas abouti. La course aux armements qui s’est engagée rend très peu probable une interdiction pure et simple. Face à un « laissez-faire » de facto, la question s’est donc déplacée vers une réglementation internationale.
Les arguments en faveur d’une interdiction
Le premier argument mis en avant par la campagne Stop Killer Robots est la déshumanisation : les machines ne nous voient pas comme des personnes, mais comme des lignes de code. Le second argument est celui des biais algorithmiques : la reconnaissance faciale utilisée dans certains systèmes d’armes automatiques favorise les visages pâles aux traits marqués, reproduisant ainsi des discriminations institutionnelles envers les femmes et les personnes de couleur. Le troisième argument est celui de la différence entre une décision humaine et une décision informatique : les machines ne comprennent pas la complexité d’un contexte et les conséquences de leurs actions peuvent miner l’ordre juridique et social.
Les machines ne comprennent pas la complexité et les conséquences de leurs actions… les humains doivent en conserver le contrôle.
C’est pourquoi les humains doivent en conserver le contrôle. D’autres éléments vont dans ce sens, comme la question de la responsabilité juridique, ou l’abaissement du seuil de déclenchement d’un conflit. Une guerre de drones s’apparente à un jeu vidéo, menant à la déresponsabilisation des belligérants. Le dernier argument est la course aux armements. Or celle-ci a commencé et c’est précisément elle qui explique l’échec de la campagne pour interdire les systèmes d’armes autonomes.
L’échec des discussions entre États
Parallèlement à la campagne des ONG activistes, un certain nombre d’États ont poussé pour une sévère limitation, et une trentaine se sont prononcés en faveur d’une interdiction complète. Le secrétaire général de l’ONU s’est exprimé à plusieurs reprises sur le sujet, en termes vigoureux1 « les machines qui ont le pouvoir et la discrétion de tuer sans intervention humaine sont politiquement inacceptables, moralement répugnantes et devraient être interdites par le droit international ». Mais la diffusion rapide de ces systèmes d’armes (produits par un nombre grandissant de pays dont certains en font le commerce) a pris de vitesse ces discussions.
L’une des raisons de cet échec est que les pays plaidant pour une interdiction pure et simple ont peu de poids sur la scène internationale, tandis que les principaux pays producteurs et utilisateurs sont des poids lourds : États-Unis, Chine et Russie sont des membres permanents du Conseil de sécurité. La perspective d’un traité a été rejetée formellement en 2019. Les États-Unis et la Russie formaient le noyau dur des opposants. La Chine, moins revendicatrice, est sur la même ligne. Le Royaume-Uni et la France, qui sont les deux autres membres permanents du Conseil, ont longtemps penché pour une interdiction mais n’en ont pas moins pris le virage industriel de la fabrication de ces systèmes d’armes.
La culture politique de ces puissances n’est pas de se laisser entraver, mais bien davantage – comme on le voit dans le domaine nucléaire – de limiter l’accès à un club de pays. Or les technologies impliquées dans les armes létales autonomes sont développées en grande partie dans le monde civil et vont se généraliser. Dans ces conditions, les grands États misent sur leur avance technologique pour ne pas être pris au dépourvu.
La tentative d’interdire s’est donc muée en une tentative de réglementer. Les questions posées deviennent plus techniques : une définition précise de l’autonomie, de la responsabilité juridique. Le discours de Human Watch International, par exemple, s’est infléchi : tout en continuant à plaider pour une interdiction, l’ONG exige « le maintien d’un contrôle humain significatif sur les systèmes d’armes et le recours à la force ». Une réglementation s’appuierait sur les principes du droit international : l’obligation de distinguer entre civils et combattants, la proportionnalité des moyens et des fins, et la nécessité militaire du recours à la force. Mais convertir ces principes parfois abstraits en solutions techniques n’a rien d’évident ; d’où l’idée désormais centrale, dans les discussions, de maintenir une forme de contrôle humain. La tendance technologique allant vers une autonomie croissante avec un rôle accru de l’IA, c’est entre ces deux pôles (contrôle humain – décision par l’AI) que se joue l’avenir des armes autonomes.