0_robotsTueurs
π Science et technologies π Géopolitique
Faut-il avoir peur des robots tueurs ?

Peut-on justifier l’utilisation des robots militaires ?

avec Richard Robert, journaliste et auteur
Le 9 novembre 2021 |
5min. de lecture
Alan Wagner
Alan Wagner
professeur adjoint au département du génie aérospatial et chercheur associé au Rock Ethics Institute
En bref
  • En théorie, les robots soldats ne connaîtraient ni la rancune, ni la colère. Mais l'éventualité d'un accident soulève des questions de responsabilité, sujet crucial dans le domaine militaire.
  • Les progrès en matière d’autonomie et de létalité posent un problème philosophique : est-il acceptable de mettre des soldats humains face à des machines incroyablement efficaces ?
  • Mais un ciblage toujours plus précis amène vers une « guerre de précision », qui serait potentiellement moins sanglante.
  • Cette évolution pourrait également conduire à un nouveau type de dissuasion.

Les robots mili­taires ont fait des pro­grès consi­dé­rables au cours des deux der­nières décen­nies, ce qui sou­lève des ques­tions quant à leur enga­ge­ment actif sur le champ de bataille. Quels sont les pro­blèmes éthiques ?

Il y a des avan­tages et des incon­vé­nients. Tout d’a­bord, étant don­né que les robots sol­dats ne sont pas émo­tifs ou ran­cu­niers, qu’ils ne connaissent pas la colère, en théo­rie ils sui­vraient à la lettre les règles de la guerre. Cela pour­rait empê­cher cer­taines des atro­ci­tés com­mises en temps de guerre. En ce sens, les robots pour­raient avoir un com­por­te­ment plus éthique que les humains. Cepen­dant, à l’heure actuelle, les sys­tèmes robo­tiques ne sont géné­ra­le­ment pas capables de faire la dis­tinc­tion entre civils et mili­taires. Par consé­quent, il existe un risque que les robots ciblent acci­den­tel­le­ment des civils. Ces deux argu­ments ne s’ex­cluent pas mutuellement.

La pos­si­bi­li­té d’un acci­dent est au cœur du débat éthique actuel.

L’é­ven­tua­li­té d’un acci­dent sou­lève des ques­tions de res­pon­sa­bi­li­té, qui sont au cœur du débat éthique actuel. L’une de nos valeurs en matière mili­taire est que c’est un humain qui est res­pon­sable de la déci­sion. Mais la res­pon­sa­bi­li­té est une notion très déli­cate lors­qu’il s’a­git de robots mili­taires. Si un com­man­dant auto­rise un sys­tème auto­nome, jusqu’où est-il res­pon­sable de sa conduite ? Si le sys­tème fait des erreurs, com­bien de temps l’au­to­ri­té per­siste-t-elle ? Sur une période don­née ? Seule­ment pour cer­taines actions ? Ces ques­tions doivent faire l’ob­jet d’une réflexion plus pous­sée, mais aus­si d’une codi­fi­ca­tion, afin de déci­der des limites de ces systèmes.

La défi­ni­tion de la res­pon­sa­bi­li­té et de l’au­to­ri­té est un point juri­dique, qui pour­rait être trai­té sur la base d’un ensemble de règles. Mais il y a aus­si un pro­blème phi­lo­so­phique : la pers­pec­tive de sol­dats en chair et en os face à des êtres de métal est-elle acceptable ?

On en revient à nos valeurs et à nos sys­tèmes de croyance. La ques­tion n’est pas seule­ment de savoir à quel point il serait injuste pour un sol­dat d’af­fron­ter une machine tueuse du type Ter­mi­na­tor. Bien sûr, si une valeur-clé de votre armée et de votre socié­té est que seul un humain peut déci­der de prendre la vie d’un autre humain, alors cela exclut l’u­ti­li­sa­tion de sys­tèmes auto­nomes pour la plu­part des opé­ra­tions mili­taires. Mais débattre en termes aus­si abso­lus revient à sim­pli­fier la ques­tion. Vous pou­vez avoir un sys­tème de valeurs qui favo­rise la sécu­ri­té de vos sol­dats. Dans ce cas, des robots auto­nomes ont leur place dans votre armée.

Les valeurs sont sou­vent en conflit les unes avec les autres et requièrent un com­pro­mis. Pour la plu­part des pays, la prin­ci­pale valeur est de ne pas perdre une guerre, car les consé­quences sont impor­tantes pour la socié­té dans son ensemble. Cela sou­lève un défi : si un pays déve­loppe des sys­tèmes auto­nomes qui n’ont pas de valeurs éthiques, mais lui donnent un avan­tage stra­té­gique, êtes-vous tenu de faire de même afin de ne pas renon­cer à cet avantage ?

À l’in­verse, il y a la ques­tion de la légi­ti­mi­té. Si vous gagnez une bataille grâce aux robots, votre adver­saire accep­te­ra-t-il votre vic­toire ? Pour­rez-vous réel­le­ment faire la paix et mettre fin à la guerre ? Il s’agit d’une ques­tion essen­tielle, qui passe pour­tant inaper­çue dans les débats éthiques sur les robots mili­taires. Elle va de pair avec la pos­si­bi­li­té que l’usage des robots accroisse la pro­pen­sion à lan­cer des opé­ra­tions. En Irak, on sait que lorsque les sol­dats amé­ri­cains n’é­taient pas en dan­ger, le nombre d’at­taques de drones par les États-Unis a aug­men­té ; ce qui sug­gère que les drones favo­risent les batailles et les guerres. Mais à l’inverse, lors de la récente guerre entre l’Ar­mé­nie et l’A­zer­baïd­jan, l’u­ti­li­sa­tion de drones aurait pu mettre fin à la guerre plus rapidement.

Dans le pas­sé, la méca­ni­sa­tion de la guerre l’a ren­due plus coû­teuse et plus san­glante, avant un retour­ne­ment de situa­tion. Cela pour­rait-il être le cas avec les robots ?

Il n’est pas cer­tain que les robots rendent la guerre plus san­glante. Ils pour­raient la rendre moins san­glante si les sys­tèmes auto­nomes conti­nuent à pro­gres­ser en matière de ciblage, en évi­tant com­plè­te­ment les vic­times civiles. Des mil­liers de vies seraient ain­si épar­gnées. C’est pour­quoi il faut être pru­dent sur la notion même de « robot tueur ».

Nous pou­vons ne pas être très à l’aise avec les mis­siles gui­dés, mais ils rem­placent les bom­bar­de­ments en tapis. Le même phé­no­mène s’est pro­duit dans l’a­gri­cul­ture, où après un siècle d’u­ti­li­sa­tion mas­sive d’en­grais, nous pas­sons à un modèle de pré­ci­sion. L’expression de « frappes chi­rur­gi­cales », uti­li­sée dans les années 1990, a été cri­ti­quée comme étant un simple slo­gan. Mais la ten­dance sous-jacente, qui est tout à fait cohé­rente avec nos sys­tèmes de valeurs, est que nous avons conti­nué à déve­lop­per des tech­no­lo­gies per­met­tant de mini­mi­ser les pertes civiles. Les années 90 ont mar­qué le début de la guerre de pré­ci­sion. Nous dis­po­sons aujourd’hui d’une recon­nais­sance de pré­ci­sion et éga­le­ment de capa­ci­tés d’as­sas­si­nat ciblé, avec des fusils à longue por­tée capables de tuer une seule per­sonne dans une voiture.

Des mil­liers de vies pour­raient être sau­vées, il faut donc être pru­dent sur la notion même de robot tueur.

Il est dif­fi­cile de savoir si nous devons dis­po­ser de ces tech­no­lo­gies ou si nous devons mener les guerres qui pour­raient en résul­ter sans elles. L’ar­gu­ment de la pente glis­sante dit que cela pour­rait deve­nir une bataille pour le contrôle de ces tech­no­lo­gies. Mais un autre argu­ment est que si les chefs d’É­tat ou des déci­deurs-clés peuvent être ciblés, la pré­ci­sion peut ame­ner la même logique de dis­sua­sion que les bombes nucléaires, inci­tant toutes les par­ties à faire preuve de retenue.

La pers­pec­tive de l’in­tel­li­gence arti­fi­cielle modi­fie-t-elle ces considérations ?

La rela­tion entre l’IA et la robo­tique est simple : le robot est la machine, l’IA est le cer­veau. Ils sont étroi­te­ment liés : plus le sys­tème est intel­li­gent, plus il est per­for­mant. Mais l’IA est un vaste domaine, qui va de la vision et de la per­cep­tion par ordi­na­teur à la prise de déci­sion intel­li­gente en pas­sant par le mou­ve­ment intel­li­gent. Tous ces élé­ments pour­raient être inté­grés aux sys­tèmes robo­tiques et uti­li­sés pour les rendre plus per­for­mants et moins sujets aux défauts et aux erreurs. Ici, l’IA per­met la pré­ci­sion, ce qui ren­force les argu­ments ci-dessus.

L’IA peut-elle rem­pla­cer les per­sonnes ? Là encore, la réponse n’est pas simple. Elle peut rem­pla­cer l’humain pour cer­taines déci­sions, non létales, ou pour toutes les déci­sions, ou juste une par­tie du temps, mais pas tout le temps. Nous en reve­nons aux limites juri­diques et aux ques­tions de res­pon­sa­bi­li­té. Ce qui change vrai­ment, ce sont les para­mètres stra­té­giques de la déci­sion. Nous par­lons ici de guerre ciné­tique. Lorsque vous uti­li­sez, par exemple, des drones pour mener une charge, vous ris­quez beau­coup moins que lorsque vous enga­gez des troupes. Les drones ne sont que des objets manu­fac­tu­rés, faciles à rem­pla­cer. Vous pou­vez ne jamais perdre l’é­lan si vous pou­vez l’ob­te­nir, ce qui change la donne sur le plan stra­té­gique. Vous pou­vez ima­gi­ner une bataille dans laquelle vous dépo­sez un groupe de robots pour contrô­ler un pont et ils le font pen­dant des années. Ils ne s’é­teignent pas ou ne dorment pas. Ils res­tent là, et per­sonne ne tra­verse le pont sans autorisation.

Soutenez une information fiable basée sur la méthode scientifique.

Faire un don