Les robots militaires ont fait des progrès considérables au cours des deux dernières décennies, ce qui soulève des questions quant à leur engagement actif sur le champ de bataille. Quels sont les problèmes éthiques ?
Il y a des avantages et des inconvénients. Tout d’abord, étant donné que les robots soldats ne sont pas émotifs ou rancuniers, qu’ils ne connaissent pas la colère, en théorie ils suivraient à la lettre les règles de la guerre. Cela pourrait empêcher certaines des atrocités commises en temps de guerre. En ce sens, les robots pourraient avoir un comportement plus éthique que les humains. Cependant, à l’heure actuelle, les systèmes robotiques ne sont généralement pas capables de faire la distinction entre civils et militaires. Par conséquent, il existe un risque que les robots ciblent accidentellement des civils. Ces deux arguments ne s’excluent pas mutuellement.
La possibilité d’un accident est au cœur du débat éthique actuel.
L’éventualité d’un accident soulève des questions de responsabilité, qui sont au cœur du débat éthique actuel. L’une de nos valeurs en matière militaire est que c’est un humain qui est responsable de la décision. Mais la responsabilité est une notion très délicate lorsqu’il s’agit de robots militaires. Si un commandant autorise un système autonome, jusqu’où est-il responsable de sa conduite ? Si le système fait des erreurs, combien de temps l’autorité persiste-t-elle ? Sur une période donnée ? Seulement pour certaines actions ? Ces questions doivent faire l’objet d’une réflexion plus poussée, mais aussi d’une codification, afin de décider des limites de ces systèmes.
La définition de la responsabilité et de l’autorité est un point juridique, qui pourrait être traité sur la base d’un ensemble de règles. Mais il y a aussi un problème philosophique : la perspective de soldats en chair et en os face à des êtres de métal est-elle acceptable ?
On en revient à nos valeurs et à nos systèmes de croyance. La question n’est pas seulement de savoir à quel point il serait injuste pour un soldat d’affronter une machine tueuse du type Terminator. Bien sûr, si une valeur-clé de votre armée et de votre société est que seul un humain peut décider de prendre la vie d’un autre humain, alors cela exclut l’utilisation de systèmes autonomes pour la plupart des opérations militaires. Mais débattre en termes aussi absolus revient à simplifier la question. Vous pouvez avoir un système de valeurs qui favorise la sécurité de vos soldats. Dans ce cas, des robots autonomes ont leur place dans votre armée.
Les valeurs sont souvent en conflit les unes avec les autres et requièrent un compromis. Pour la plupart des pays, la principale valeur est de ne pas perdre une guerre, car les conséquences sont importantes pour la société dans son ensemble. Cela soulève un défi : si un pays développe des systèmes autonomes qui n’ont pas de valeurs éthiques, mais lui donnent un avantage stratégique, êtes-vous tenu de faire de même afin de ne pas renoncer à cet avantage ?
À l’inverse, il y a la question de la légitimité. Si vous gagnez une bataille grâce aux robots, votre adversaire acceptera-t-il votre victoire ? Pourrez-vous réellement faire la paix et mettre fin à la guerre ? Il s’agit d’une question essentielle, qui passe pourtant inaperçue dans les débats éthiques sur les robots militaires. Elle va de pair avec la possibilité que l’usage des robots accroisse la propension à lancer des opérations. En Irak, on sait que lorsque les soldats américains n’étaient pas en danger, le nombre d’attaques de drones par les États-Unis a augmenté ; ce qui suggère que les drones favorisent les batailles et les guerres. Mais à l’inverse, lors de la récente guerre entre l’Arménie et l’Azerbaïdjan, l’utilisation de drones aurait pu mettre fin à la guerre plus rapidement.
Dans le passé, la mécanisation de la guerre l’a rendue plus coûteuse et plus sanglante, avant un retournement de situation. Cela pourrait-il être le cas avec les robots ?
Il n’est pas certain que les robots rendent la guerre plus sanglante. Ils pourraient la rendre moins sanglante si les systèmes autonomes continuent à progresser en matière de ciblage, en évitant complètement les victimes civiles. Des milliers de vies seraient ainsi épargnées. C’est pourquoi il faut être prudent sur la notion même de « robot tueur ».
Nous pouvons ne pas être très à l’aise avec les missiles guidés, mais ils remplacent les bombardements en tapis. Le même phénomène s’est produit dans l’agriculture, où après un siècle d’utilisation massive d’engrais, nous passons à un modèle de précision. L’expression de « frappes chirurgicales », utilisée dans les années 1990, a été critiquée comme étant un simple slogan. Mais la tendance sous-jacente, qui est tout à fait cohérente avec nos systèmes de valeurs, est que nous avons continué à développer des technologies permettant de minimiser les pertes civiles. Les années 90 ont marqué le début de la guerre de précision. Nous disposons aujourd’hui d’une reconnaissance de précision et également de capacités d’assassinat ciblé, avec des fusils à longue portée capables de tuer une seule personne dans une voiture.
Des milliers de vies pourraient être sauvées, il faut donc être prudent sur la notion même de robot tueur.
Il est difficile de savoir si nous devons disposer de ces technologies ou si nous devons mener les guerres qui pourraient en résulter sans elles. L’argument de la pente glissante dit que cela pourrait devenir une bataille pour le contrôle de ces technologies. Mais un autre argument est que si les chefs d’État ou des décideurs-clés peuvent être ciblés, la précision peut amener la même logique de dissuasion que les bombes nucléaires, incitant toutes les parties à faire preuve de retenue.
La perspective de l’intelligence artificielle modifie-t-elle ces considérations ?
La relation entre l’IA et la robotique est simple : le robot est la machine, l’IA est le cerveau. Ils sont étroitement liés : plus le système est intelligent, plus il est performant. Mais l’IA est un vaste domaine, qui va de la vision et de la perception par ordinateur à la prise de décision intelligente en passant par le mouvement intelligent. Tous ces éléments pourraient être intégrés aux systèmes robotiques et utilisés pour les rendre plus performants et moins sujets aux défauts et aux erreurs. Ici, l’IA permet la précision, ce qui renforce les arguments ci-dessus.
L’IA peut-elle remplacer les personnes ? Là encore, la réponse n’est pas simple. Elle peut remplacer l’humain pour certaines décisions, non létales, ou pour toutes les décisions, ou juste une partie du temps, mais pas tout le temps. Nous en revenons aux limites juridiques et aux questions de responsabilité. Ce qui change vraiment, ce sont les paramètres stratégiques de la décision. Nous parlons ici de guerre cinétique. Lorsque vous utilisez, par exemple, des drones pour mener une charge, vous risquez beaucoup moins que lorsque vous engagez des troupes. Les drones ne sont que des objets manufacturés, faciles à remplacer. Vous pouvez ne jamais perdre l’élan si vous pouvez l’obtenir, ce qui change la donne sur le plan stratégique. Vous pouvez imaginer une bataille dans laquelle vous déposez un groupe de robots pour contrôler un pont et ils le font pendant des années. Ils ne s’éteignent pas ou ne dorment pas. Ils restent là, et personne ne traverse le pont sans autorisation.